TX, 21/11/2024
Por David Drucker
Tecnologias modernas, como as redes sociais, estão tornando mais fácil do que nunca para inimigos dos Estados Unidos manipular emocionalmente os cidadãos norte-americanos.
Autoridades dos EUA alertam que adversários estrangeiros estão tentando produzir grandes quantidades de informações falsas, e enganosas online, para influenciar a opinião pública no país. Em julho, o Departamento de Justiça anunciou que havia desmantelado uma campanha de desinformação apoiada pelo Kremlin, que utilizava cerca de mil contas falsas de redes sociais para espalhar informações enganosas.
Embora a IA seja frequentemente usada como ferramenta ofensiva em guerras de desinformação, gerando grandes volumes de conteúdo, ela agora desempenha um papel importante na defesa.
Mark Finlayson, professor do Colégio de Engenharia e Computação da FIU, é especialista em treinar IA para entender histórias. Ele estuda o tema há mais de duas décadas.
Histórias persuasivas—mas falsas
Contar histórias é fundamental para disseminar desinformação.
"Uma narrativa comovente ou um relato pessoal é frequentemente mais convincente para o público do que os fatos", diz Finlayson. "Histórias são particularmente eficazes em superar resistências a uma ideia."
Por exemplo, um ativista ambiental pode convencer melhor o público sobre a poluição por plástico ao compartilhar a história de uma tartaruga marinha resgatada com um canudo preso no nariz, em vez de apenas citar estatísticas, explica Finlayson. A história torna o problema mais compreensível.
"Estamos explorando as diferentes maneiras como histórias são usadas para embasar argumentos", ele diz. "É um problema desafiador, já que histórias em postagens de redes sociais podem ser tão curtas quanto uma única frase e, às vezes, essas postagens apenas fazem alusão a histórias conhecidas sem contá-las explicitamente."
Nomes de usuários suspeitos
A equipe de Finlayson também está explorando como a IA pode analisar nomes de usuários (ou handles) em perfis de redes sociais. Azwad Islam, doutorando e coautor de um artigo recente publicado com Finlayson, explica que nomes de usuários frequentemente contêm pistas importantes sobre a identidade e intenções de uma pessoa.
O artigo foi publicado nos Anais da Conferência Internacional AAAI sobre Web e Redes Sociais, um evento de inteligência artificial.
"Os handles revelam muito sobre os usuários e como eles querem ser percebidos", explica Islam. "Por exemplo, uma pessoa que afirma ser jornalista em Nova York pode escolher o nome '@AlexBurnsNYT' em vez de '@NewYorkBoy', porque soa mais confiável. Ambos os nomes, no entanto, sugerem que o usuário é homem e tem ligação com Nova York."
A equipe da FIU demonstrou uma ferramenta capaz de analisar um nome de usuário e revelar de forma confiável o nome, gênero, localização e até mesmo traços de personalidade da pessoa (se essas informações estiverem implícitas no nome).
Embora um handle por si só não confirme se uma conta é falsa, ele pode ser crucial na análise da autenticidade geral de uma conta—especialmente à medida que a capacidade da IA de entender histórias evolui.
"Interpretando handles como parte da narrativa maior que uma conta apresenta, acreditamos que nomes de usuário podem se tornar uma ferramenta essencial na identificação de fontes de desinformação", afirma Islam.
Diferenças culturais em foco
Objetos e símbolos carregam significados diferentes entre culturas. Se um modelo de IA não compreender essas diferenças, pode cometer erros graves ao interpretar uma história. Adversários estrangeiros também podem usar esses símbolos para tornar suas mensagens mais persuasivas para o público-alvo.
Anurag Acharya, ex-doutorando de Finlayson, trabalhou nesse problema e descobriu que treinar IA com perspectivas culturais diversas melhora a compreensão de histórias pela máquina.
"Uma história pode dizer: 'A mulher estava radiante em seu vestido branco.' Um modelo de IA treinado exclusivamente em histórias ocidentais sobre casamentos pode interpretar isso como algo positivo. Mas, se minha mãe lesse essa frase, ela ficaria muito ofendida, porque em nossa cultura usamos branco apenas em funerais", explica Acharya, que vem de uma família de herança hindu.
É fundamental que a IA entenda essas nuances, para detectar quando adversários estrangeiros estão usando mensagens culturais para causar um impacto maligno maior.
Acharya e Finlayson publicaram um artigo recente sobre esse tema, apresentado em um workshop da Reunião da Seção Norte-Americana da Associação de Linguística Computacional (NAACL), uma conferência de IA.
Ajudando a IA a organizar o caos
Outro desafio em entender histórias é que a sequência de eventos raramente é apresentada de forma clara e ordenada. Em vez disso, os eventos frequentemente aparecem fragmentados, entrelaçados com outras narrativas. Para leitores humanos, isso cria um efeito dramático; mas para modelos de IA, essas interrelações complexas podem gerar confusão.
A pesquisa de Finlayson sobre extração de cronologias avançou significativamente a capacidade da IA de entender sequências de eventos em narrativas.
"Em uma história, você pode ter inversões e rearranjos de eventos de várias formas complexas. Este é um dos aspectos principais em que trabalhamos com a IA. Ajudamos a IA a mapear diferentes eventos que acontecem no mundo real, e como eles podem afetar uns aos outros", afirma Finlayson.
"Isso é um bom exemplo de algo que as pessoas acham fácil de entender, mas que é desafiador para as máquinas. Um modelo de IA precisa ser capaz de ordenar os eventos de uma história com precisão. Isso é importante não apenas para identificar desinformação, mas também para muitas outras aplicações."
Os avanços da equipe da FIU, em ajudar a IA a compreender histórias, estão prontos para ajudar analistas de inteligência a combater a desinformação com novos níveis de eficiência e precisão.
Artigos recomendados: Detecção e Discurso
Fonte:https://techxplore.com/news/2024-11-ai-foreign-online.html
Nenhum comentário:
Postar um comentário