15 de fev. de 2023

Ferramenta de IA criada para adestrar humanos a não serem hostis em discussões online




TX, 14/02/2023 



Por Louis DiPietro



Está arrependido de ter sido hostil online? A ferramenta de IA guia (adestra) os usuários para longe das emoções hostis.

Para ajudar a identificar quando os tensos debates online estão se aproximando de um colapso irremediável, os pesquisadores da Cornell desenvolveram uma ferramenta de inteligência artificial que pode rastrear essas conversas em tempo real, detectar quando as tensões estão aumentando e afastar os usuários do uso de linguagem incendiária.

Detalhada em dois artigos publicados recentemente que examinam a eficácia da IA ​​na moderação de discussões (e conteúdo) online, a pesquisa mostra sinais promissores de que os métodos de previsão de conversação no campo do processamento de linguagem natural podem ser úteis para ajudar moderadores e usuários a diminuir proativamente o vitríolo e manter fóruns de debate saudáveis ​​e produtivos.

"Debatedores bem-intencionados são apenas humanos. No meio de um debate acalorado, sobre um assunto de que você gosta muito, pode ser fácil reagir emocionalmente e só perceber depois do fato", disse Jonathan Chang, aluno de doutorado no campo da ciência da computação e principal autor de "Thread With Caution: Proactively Helping Users Assess and Deescalate Tension in Their Online Discussions" (Tópico: Ajudando os usuários de forma proativa a avaliar e diminuir a tensão em suas discussões online), que foi apresentado virtualmente na Conferência ACM sobre Trabalho Cooperativo Suportado por Computador e Computação Social (CSCW) em 10 de novembro.

A ideia não é dizer aos usuários o que dizer, disse Chang, mas encorajar os usuários a se comunicarem pessoalmente.

A ferramenta, chamada ConvoWizard, é uma extensão de navegador alimentada por uma rede neural profunda. Essa rede foi treinada em montanhas de dados baseados em linguagem extraídos do subreddit Change My View, um fórum que prioriza debates de boa fé sobre assuntos potencialmente acalorados relacionados à política, economia e cultura.

Quando os usuários participantes do Change My View ativam o ConvoWizard, a ferramenta pode informá-los quando a conversa está começando a ficar tensa. Ele também pode informar aos usuários, em tempo real, enquanto eles escrevem suas respostas, se o comentário provavelmente aumentará a tensão. O estudo sugere que o feedback alimentado por IA pode ser eficaz para orientar o usuário em direção a uma linguagem que eleva o debate construtivo, disseram os pesquisadores.

"O ConvoWizard está basicamente perguntando: 'Se este comentário for postado, isso aumentará ou diminuirá a tensão estimada na conversa?' Se o comentário aumentar a tensão, o ConvoWizard daria um aviso", disse Chang. A caixa de texto ficaria vermelha, por exemplo. "A ferramenta segue essa linha de dar feedback sem desviar para o território perigoso de dizer a eles para fazer isso ou aquilo."

Para testar o ConvoWizard, os pesquisadores da Cornell colaboraram com o subreddit Change My View, onde cerca de 50 moderadores e membros participantes do fórum colocaram a ferramenta em uso. As descobertas foram positivas: 68% sentiram que as estimativas de risco da ferramenta eram tão boas ou melhores do que sua própria intuição, e mais da metade dos participantes relatou que os avisos do ConvoWizard os impediram de postar um comentário do qual se arrependeriam mais tarde.

Chang também observou que, antes de usar o ConvoWizard, os participantes foram questionados se já haviam postado algo de que se arrependiam. Mais da metade disse que sim.

Essas descobertas confirmam que, sim, mesmo usuários bem-intencionados podem cair nesse tipo de comportamento e se sentir mal com isso”, disse ele.

É empolgante pensar em como ferramentas baseadas em IA, como o ConvoWizard, podem permitir um paradigma completamente novo para encorajar discussões online de alta qualidade, capacitando diretamente os participantes dessas discussões a usar suas próprias intuições, em vez de censurá-las ou restringi-las”, disse Cristian Danescu-Niculescu-Mizil, professor associado de ciência da informação na Cornell Ann S. Bowers College of Computing and Information Science e coautor da pesquisa.

Em um artigo separado da Cornell também apresentado na CSCW, "Proactive Moderation of Online Discussions: Existing Practices and the Potential for Algorithmic Support", pesquisadores – incluindo Chang – exploram como uma ferramenta de IA alimentada por tecnologia de previsão conversacional semelhante pode ser integrada e usada entre moderadores.

A pesquisa visa encontrar maneiras mais saudáveis ​​de abordar o vitríolo em fóruns em tempo real e diminuir a carga de trabalho dos moderadores voluntários. Os autores do artigo são Charlotte Schluger, Chang, Danescu-Niculescu-Mizil e Karen Levy, professora associada de ciência da informação e membro associado do corpo docente da Cornell Law School.

"Tem havido muito pouco trabalho sobre como ajudar os moderadores no lado proativo de seu trabalho", disse Chang. “Descobrimos que há potencial para ferramentas algorítmicas para ajudar a aliviar o fardo sentido pelos moderadores e ajudá-los a identificar áreas a serem revisadas nas conversas e onde intervir”.

Olhando para o futuro, Chang disse que a equipe de pesquisa explorará o quão bem um modelo como o ConvoWizard se generaliza para outras comunidades online.

Como os algoritmos de previsão de conversas escalam é outra questão importante, disseram os pesquisadores. Chang apontou para uma descoberta da pesquisa ConvoWizard que mostrou que 64% dos participantes do Change My View sentiram que a ferramenta, se amplamente adotada, melhoraria a qualidade geral da discussão. "Estamos interessados ​​em descobrir o que aconteceria se uma fatia maior de uma comunidade online usasse essa tecnologia", disse ele. "Quais seriam os efeitos a longo prazo?"

Artigos recomendados: Censura e Tecnocracia 


Fonte:https://techxplore.com/news/2023-02-hostile-online-ai-tool-users.html

Nenhum comentário:

Postar um comentário

Related Posts Plugin for WordPress, Blogger...