Páginas

1 de mai. de 2024

A análise de voz por IA fornece aos trabalhadores das linhas de prevenção ao suicídio um painel emocional




NA, 01/05/2024 



Por Paul McClure 



Um modelo de IA rastreia com precisão emoções como medo e preocupação nas vozes dos atendentes de linhas de crise, de acordo com uma nova pesquisa. O desenvolvedor do modelo espera que ele possa fornecer assistência em tempo real aos operadores de telefone enquanto trabalham para prevenir suicídios.

A triagem dos operadores das linhas de crise ou suicídio quanto ao seu nível atual de risco de suicídio é crucial para detectar e prevenir o suicídio.

A fala transmite informações úteis sobre o estado mental e emocional de uma pessoa, fornecendo pistas sobre se estão tristes, irritadas ou com medo. Pesquisas sobre a fala suicida remontam a mais de 30 anos, com estudos identificando marcadores acústicos objetivos que podem ser usados para diferenciar vários estados mentais e transtornos psiquiátricos, incluindo depressão.

No entanto, identificar o risco de suicídio a partir da fala de alguém pode ser desafiador para o ouvinte humano, porque os chamadores dessas linhas estão emocionalmente instáveis e as características de sua fala podem mudar rapidamente.

Talvez um 'painel' emocional em tempo real possa ajudar. Alaa Nfissi, estudante de doutorado da Universidade Concordia, em Montreal, Canadá, treinou um modelo de IA em reconhecimento de emoções na fala para ajudar na prevenção do suicídio. Ele apresentou um artigo sobre seu trabalho na Conferência Internacional de Computação Semântica IEEE deste ano, na Califórnia, onde ganhou o prêmio de Melhor Artigo de Estudante.

"Tradicionalmente, o reconhecimento de emoções na fala era feito manualmente por psicólogos treinados que anotavam sinais de fala, o que requer altos níveis de tempo e expertise", disse Nfissi. "Nosso modelo de aprendizado profundo extrai automaticamente características da fala relevantes para o reconhecimento de emoções".

Para treinar o modelo, Nfissi usou um banco de dados de gravações de chamadas reais feitas para linhas de prevenção ao suicídio, combinadas com gravações de atores expressando emoções específicas. As gravações foram divididas em segmentos e anotadas para refletir um estado mental específico: com raiva, triste, neutro, com medo/preocupado/aflito. As gravações dos atores foram mescladas com as gravações originais da vida real porque as emoções de raiva e medo/preocupação estavam sub-representadas.

O modelo de Nfissi conseguiu reconhecer com precisão as quatro emoções. Nos conjuntos de dados mesclados, ele identificou corretamente o estado de medo/preocupação/aflição 82% das vezes, tristeza 77%, raiva 72% e neutro 78% do tempo. O modelo foi particularmente bom em identificar os segmentos das chamadas da vida real, com uma taxa de sucesso de 78% para tristeza e 100% para raiva.



Nfissi espera ver seu modelo sendo usado para desenvolver um painel em tempo real que ajudará os operadores de linha de crise, a escolher estratégias de intervenção apropriadas para os chamadores.

"Muitas dessas pessoas estão sofrendo, e às vezes apenas uma intervenção simples de um conselheiro pode ajudar muito", disse Nfissi. "Espero que este [modelo de IA] garanta que a intervenção as ajude e, em última análise, evite um suicídio".

Por fim, esses tipos de IA empáticas podem muito bem assumir linhas de prevenção ao suicídio inteiras. Considere Hume, anunciado como a primeira IA  de voz para voz projetada para interpretar emoções e gerar respostas empáticas. Você pode testá-lo visitando o site do Hume, onde a IA informa quais emoções pode detectar em sua voz e tenta ajustar o tom de sua resposta de acordo.



E mesmo sem essa tecnologia emocionalmente responsiva, a IA conversacional está começando a assumir outras funções na indústria de centrais de atendimento; o Financial Times recentemente publicou um artigo no qual K. Krithivasan, CEO e diretor administrativo da empresa de TI indiana Tata Consultancy Services, disse que a IA poderia eventualmente eliminar a necessidade de centrais de atendimento que empregam muitas pessoas em países como Filipinas e Índia.

Então, a perda de empregos é claramente uma preocupação, mas a IA empática levanta mais questões. No mês passado, o New Atlas relatou que quando o GPT-4 da OpenAI recebeu o gênero, idade, raça, educação e orientação política de uma pessoa e foi solicitado a usar as informações para apresentar um argumento específico para essa pessoa, foi 81,7% mais persuasivo do que os humanos.

A IA já mostrou quão hábil é em reunir uma vasta quantidade de informações – coisas como etnia, peso corporal, traços de personalidade, hábitos de consumo de drogas, medos e preferências sexuais – da tecnologia de rastreamento ocular. Você precisa de algum equipamento especial para rastrear os olhos –, mas se sua voz pode revelar tanto sobre suas emoções, bem, há um dispositivo sentado bem aí no seu bolso que poderia estar ouvindo.

Não parece ser um exagero imaginar um mundo onde smartphones equipados com IA rastreiam emoções em nossas vozes e em nossos rostos, e então usam seu estado atual, juntamente com tudo o mais que sabem sobre você, para recomendar um item, refeição, filme ou música que corresponda ou eleve seu humor. Ou manipule você para comprar seguro de vida, um carro novo, um vestido ou uma viagem ao exterior.

Você está certo se detectou cinismo (tenho certeza de que a IA também teria detectado). Claro, o lado menos cínico é que a IA empática poderia ser usada na área da saúde para interagir responsivamente com pacientes, especialmente aqueles que não têm entes queridos ou têm demência. Podemos ver esse tipo de coisa mais cedo do que tarde. Em março de 2024, a gigante da tecnologia NVIDIA anunciou uma parceria com a Hippocratic AI para produzir "agentes de saúde" alimentados por IA que superam – e são mais baratos que – enfermeiros humanos.

Como na maioria das coisas relacionadas à IA em rápida evolução, o tempo dirá para onde chegaremos.

O artigo de Nfissi foi apresentado na 18ª Conferência Internacional de Computação Semântica (ICSC) da IEEE de 2024.

Artigos recomendados: IA e Emoções 


Fonte:https://newatlas.com/technology/ai-emotion-speech-suicide-prevention/ 

Nenhum comentário:

Postar um comentário