TX, 13/02/2023
Por Brittany Steff
Traga à tona as relações robô-humano e você certamente evocará imagens de robôs futuristas famosos, do Exterminador do Futuro ao C-3PO. Mas, na verdade, a invasão dos robôs já começou. Dispositivos e programas, incluindo assistentes de voz digital, texto preditivo e eletrodomésticos são inteligentes e estão ficando cada vez mais inteligentes. Não adianta, porém, que os computadores sejam apenas cérebro e nenhum coração.
O cientista da computação Aniket Bera, professor associado de ciência da computação na Faculdade de Ciências da Universidade de Purdue, está trabalhando para garantir que o futuro seja um pouco mais "Big Hero 6" e um pouco menos como Skynet. De chatbots de terapia a robôs assistentes intuitivos, drones inteligentes de busca e resgate, modelagem e gráficos de computador, seu laboratório trabalha para otimizar computadores para um mundo humano.
“O objetivo da minha pesquisa é usar IA para melhorar a vida humana”, disse Bera. "Humanos, comportamento humano e emoções humanas estão no centro de tudo o que faço."
Bera é especialista no campo interdisciplinar da computação afetiva: usando aprendizado de máquina e outros métodos de ciência da computação para programar programas de inteligência artificial para incorporar e entender melhor o comportamento e a emoção humana.
Inteligência artificial (emocional)
Os computadores são ferramentas e são tão bons quanto os programamos que foram feitos para serem. Quando você pede à Siri para tocar uma música ou à Alexa para definir um cronômetro, eles respondem ao contexto de suas palavras. Mas os humanos não se comunicam usando apenas palavras: tom de voz, contexto, postura e gestos desempenham um papel monumentalmente importante na comunicação humana.
"Quando um amigo pergunta como você está, você pode dizer: 'Estou bem!' em um tom otimista, e isso significa algo completamente diferente do que se você dissesse 'estou bem', como o Eeyore", disse Bera. "Os computadores geralmente prestam atenção apenas ao conteúdo e ignoram o contexto."
Essa literalidade é boa para dispositivos que estão apenas tentando ajudá-lo em tarefas mundanas. No entanto, se você estiver usando IA para propósitos mais complexos, os dispositivos precisam de um pouco mais da perspectiva do Capitão Kirk e um pouco menos da de Spock. Bera está usando sua experiência em aprendizado de máquina para programar dispositivos para incorporar uma compreensão de sinais e comunicação não-verbais.
“Estamos tentando construir modelos e sistemas de IA que sejam mais humanos e mais aptos a interagir com humanos”, disse Bera. “Se pudermos maximizar a capacidade da IA de interpretar e interagir com humanos, podemos ajudar mais pessoas com mais eficiência”.
Bera e sua equipe estão trabalhando em uma abordagem multissensorial para essa IA "emocional", que envolve observar e analisar expressões faciais, linguagem corporal, movimentos e gestos involuntários e subconscientes, movimentos oculares, padrões de fala, entonações e diferentes parâmetros linguísticos e culturais. O treinamento da IA nesses tipos de entradas não apenas melhora a comunicação, mas também equipa melhor a IA para responder aos humanos de maneira mais apropriada e até emotiva.
Bera explica que os Estados Unidos e a maior parte do mundo estão passando por uma escassez de profissionais de saúde mental. O acesso à saúde mental pode ser difícil de encontrar, e as sessões podem ser difíceis de pagar ou de caber na agenda lotada de uma pessoa. Bera vê os programas de IA emocionalmente inteligentes como ferramentas que podem preencher a lacuna e está trabalhando com escolas de medicina e hospitais para concretizar essas ideias.
Os programas de terapia informados por IA podem ajudar a avaliar a saúde mental e emocional de uma pessoa e apontá-la para os recursos corretos, além de sugerir algumas estratégias iniciais para ajudar. Falar com uma IA para algumas pessoas, especialmente aquelas que são neurodivergentes ou têm ansiedade social, pode ser menos arriscado e mais fácil do que falar com um humano. Ao mesmo tempo, ter um assistente de IA para anotar a comunicação não-verbal e os padrões de fala de uma pessoa pode ajudar os terapeutas humanos a acompanhar o progresso de seus pacientes entre as sessões e permitir que eles forneçam o melhor atendimento possível.
Navegando em ambientes emocionais
Outra área em que permitir que os programas de IA compreendam melhor as emoções humanas é quando os robôs compartilham o espaço físico com os humanos.
Carros autônomos podem entender e interpretar marcadores pintados na calçada, mas não conseguem identificar pedestres humanos e avaliar o que eles podem fazer com base em seus movimentos.
Uma criança confusa, um adolescente zangado ou um adulto em pânico são imagens que podem fazer o motorista de um veículo diminuir a velocidade e ser mais cauteloso do que normalmente seria. O motorista humano sabe intuitivamente que são pessoas que podem fazer movimentos irracionais ou bruscos e podem colocá-los em risco de colisão com um veículo.
Para que os robôs sejam capazes de chegar à mesma conclusão usando sinais não-verbais e posturais, os veículos autônomos e outros robôs autônomos podem navegar com mais segurança em ambientes físicos. Bera está trabalhando com colaboradores na programação do cérebro de um robô com rodas chamado ProxEmo, que pode ler a linguagem corporal dos humanos para avaliar suas emoções.
No futuro, protocolos semelhantes podem ajudar outros tipos de robôs a avaliar quais indivíduos em uma multidão estão confusos ou perdidos e ajudá-los de forma rápida e eficiente.
Rovers de resgate
Alguns ambientes físicos – cenas de desastres naturais, campos de batalha e ambientes perigosos – são muito perigosos para os humanos. Historicamente, nesses casos, os humanos têm aproveitado parceiros não humanos, incluindo canários de minas de carvão, cães de resgate e até mesmo ratos farejadores de bombas, para ir aonde nenhum humano pode.
Claro, seria ainda melhor se não pudéssemos arriscar nenhuma vida – não apenas poupar as humanas. Bera e sua equipe estão trabalhando com modelos de drones disponíveis comercialmente, como um "cachorro" robô de quatro patas – para criar rovers autônomos que podem, por exemplo, procurar sobreviventes após um terremoto.
"A maioria das pessoas que morre no terremoto não morre no terremoto real", disse Bera. "Eles morrem por ficarem presos nos escombros; eles morrem porque os socorristas não conseguiram encontrá-los rápido o suficiente. Um drone pode escanear o ambiente e rastejar por entre os escombros para detectar sinais de vida, incluindo batimentos cardíacos, calor corporal e dióxido de carbono, muito mais com segurança do que até os cães podem. Além disso, não há risco para um cão vivo se enviarmos o cão robô".
Compreender como os humanos se movem pode ajudar os robôs a navegar em ambientes de desastres, ficar fora do caminho dos socorristas humanos e ajudar a localizar, alcançar e resgatar sobreviventes com mais eficiência do que humanos ou cães poderiam sozinhos. Pense em Wall-E e EVE trabalhando juntos para restaurar o planeta Terra destruído.
“A ideia é construir um futuro onde os robôs possam ser parceiros, possam ajudar os humanos a realizar objetivos e tarefas com mais segurança, eficiência e eficácia”, disse Bera. "Na ciência da computação, muitas vezes os maiores problemas são os humanos. O que nossa pesquisa faz é colocar o humano de volta na solução de problemas para construir um mundo melhor."
Artigos recomendados: Robôs e Tecnocracia
Fonte:https://techxplore.com/news/2023-02-youve-heart-scientist-ai-comprehend.html
Nenhum comentário:
Postar um comentário