Páginas

2 de abr. de 2024

Robôs que sabem se estamos tristes ou felizes estão chegando




BU, 01/04/2024 



Por Masha Borak 



Muitos de nós já estamos conversando com nossos dispositivos inteligentes como se fossem humanos. No futuro, os dispositivos inteligentes podem ser capazes de responder de volta de forma semelhante, imitando os "humms" e "ahhs", as risadas e os suspiros, junto com outros sinais que indicam emoções humanas, como melodia, ritmo e timbre.

A startup de Nova York, Hume AI, lançou uma nova interface de voz de IA "emocionalmente inteligente" que pode ser integrada em diferentes aplicativos, desde atendimento ao cliente até cuidados de saúde, realidade virtual e aumentada.

A versão beta do produto, chamada Interface de Voz Empática (EVI), foi lançada após garantir uma rodada de financiamento série B de US$50 milhões liderada pela EQT Ventures, Union Square Ventures, Nat Friedman & Daniel Gross, Metaplanet, Northwell Holdings, Comcast Ventures e LG Technology Ventures também participaram do financiamento.

A IA conversacional é a primeira a ser treinada para entender quando os usuários terminam de falar, prever suas preferências e gerar respostas vocais otimizadas para a satisfação do usuário ao longo do tempo, diz a Hume AI em um comunicado.

"A principal limitação dos sistemas de IA atuais é que eles são guiados por avaliações e instruções humanas superficiais, que são propensas a erros e falham em aproveitar o vasto potencial da IA para criar novas maneiras de fazer as pessoas felizes", diz o fundador da empresa e ex-cientista do Google, Alan Cowen. "Ao construir IA que aprende diretamente com proxies da felicidade humana, estamos efetivamente ensinando-a a reconstruir preferências humanas a partir de princípios básicos e, em seguida, atualizar esse conhecimento com cada nova pessoa com quem ela conversa e com cada novo aplicativo em que está incorporada."

O modelo de voz foi treinado com dados de milhões de interações humanas e construído sobre uma IA generativa multimodal que integra grandes modelos de linguagem (LLMs), com medidas de expressão. A Hume chama isso de um grande modelo de linguagem empático (eLLM), e isso ajuda seu produto a ajustar as palavras e o tom da voz com base no contexto, e nas expressões emocionais do usuário.

A Hume AI não é a única empresa experimentando trazer emoção para a tecnologia.

O robótico Hod Lipson, da Universidade de Columbia, criou um robô alimentado por IA que usa redes neurais para observar rostos humanos, prever suas expressões e tentar replicá-las com seu próprio rosto.

Cientistas do Instituto Nacional de Ciência e Tecnologia de Ulsan, na Coreia do Sul, também desenvolveram uma máscara facial que usa sensores para registrar dados de expressões verbais e não verbais.

O chamado sistema de interface facial personalizada integrada à pele (PSiFI) realiza transferência de dados sem fio, permitindo o reconhecimento de emoções em tempo real.

Seu desenvolvedor, Jiyun Kim, acredita que o dispositivo vestível poderia ser usado em aplicativos como concierges digitais em realidade virtual, que fornecem serviços personalizados com base nas emoções dos usuários, como recomendações de música, filmes e livros.

Artigos recomendados: Detector e Sono


Fonte:https://www.biometricupdate.com/202404/robots-that-know-if-were-sad-or-happy-are-coming 

Nenhum comentário:

Postar um comentário