TX, 06/11/2024
Por Magda Osman
Na ambiciosa busca para combater os danos causados por conteúdos falsos nas redes sociais e sites de notícias, cientistas de dados estão sendo criativos.
Embora ainda em fase inicial, os modelos de linguagem de grande escala (LLMs), usados para criar chatbots como o ChatGPT, estão sendo recrutados para identificar notícias falsas. Com uma detecção mais eficiente, sistemas de verificação com IA podem alertar sobre os potenciais danos de deepfakes, propaganda, teorias da conspiração e desinformação, e, no fim, neutralizá-los.
As próximas ferramentas de IA irão personalizar a detecção de conteúdo falso e nos proteger contra ele. Para essa transformação centrada no usuário, a ciência de dados precisa recorrer à ciência comportamental e à neurociência.
Pesquisas recentes sugerem que, às vezes, não sabemos conscientemente que estamos diante de notícias falsas. A neurociência ajuda a descobrir o que ocorre de forma inconsciente. Biomarcadores, como frequência cardíaca, movimentos oculares e atividade cerebral, parecem reagir de forma sutil ao conteúdo falso e verdadeiro. Em outras palavras, esses biomarcadores podem ser “sinais” de que fomos ou não enganados.
Por exemplo, ao olhar para rostos, dados de rastreamento ocular mostram que buscamos sinais como taxa de piscar e mudanças na cor da pele causadas pelo fluxo sanguíneo. Se esses elementos parecerem artificiais, podemos perceber que estamos vendo um deepfake. Esse conhecimento pode ser vantajoso para a IA—podemos treiná-la para simular o que os humanos observam, entre outros fatores.
A personalização de um detector de notícias falsas com IA começa a se moldar com descobertas dos dados de movimentos oculares humanos, e da atividade elétrica do cérebro, que mostram quais tipos de conteúdo falso têm maior impacto neural, psicológico e emocional, e para quem.
Conhecendo nossos interesses, personalidade e reações emocionais, um sistema de verificação de IA poderia detectar e antecipar qual conteúdo geraria a reação mais intensa em nós. Isso ajudaria a estabelecer quando as pessoas são enganadas e qual tipo de material as engana com mais facilidade.
Contrapondo danos
O próximo passo é personalizar as proteções. Proteger-nos dos danos das notícias falsas também requer a criação de sistemas que possam intervir—alguma contramedida digital contra notícias falsas. Há várias formas de fazer isso, como rótulos de aviso, links para conteúdo confiável validado por especialistas e até mesmo incentivar as pessoas a considerar diferentes perspectivas ao ler algo.
Nosso próprio detector de notícias falsas com IA poderia ser projetado para oferecer uma dessas contramedidas, a fim de neutralizar o impacto dos conteúdos falsos online.
Essa tecnologia já está sendo testada. Pesquisadores nos EUA estudaram como as pessoas interagem com um detector de notícias falsas personalizado com IA, para postagens em redes sociais. Ele aprendeu a reduzir o número de postagens no feed de notícias para aquelas consideradas verdadeiras. Como prova de conceito, outro estudo usou postagens de redes sociais para incluir conteúdo adicional em cada postagem, incentivando os usuários a verem outras perspectivas.
Detecção precisa de notícias falsas
Mas, embora tudo isso pareça impressionante ou distópico, antes de nos empolgarmos, talvez valha a pena fazer algumas perguntas básicas.
Grande parte, se não todo o trabalho sobre notícias falsas, deepfakes, desinformação e fake news destaca o mesmo problema que qualquer detector de mentiras enfrentaria.
Existem vários tipos de detectores de mentiras, não apenas o polígrafo. Alguns dependem exclusivamente de análise linguística. Outros são projetados para ler expressões faciais para detectar microexpressões que revelam uma mentira. Da mesma forma, há sistemas de IA projetados para identificar se um rosto é genuíno ou um deepfake.
Antes que a detecção comece, todos precisamos concordar sobre o que constitui uma mentira para que possamos identificá-la. Na verdade, em pesquisas sobre engano, é mais fácil porque podemos instruir as pessoas sobre quando mentir e quando dizer a verdade. Assim, é possível conhecer a verdade antes de treinar um humano ou uma máquina para distinguir, pois eles são fornecidos com exemplos para basear seus julgamentos.
A eficácia de um detector de mentiras depende de quão frequentemente ele identifica uma mentira quando há uma (acerto). Mas também, que ele não confunda frequentemente alguém dizendo a verdade quando, na realidade, estava mentindo (erro). Isso significa que ele precisa reconhecer a verdade quando a vê (rejeição correta) e não acusar alguém de mentir quando estava dizendo a verdade (falso alarme). Esse conceito se refere à detecção de sinal, e a mesma lógica se aplica à detecção de notícias falsas.
Para que um sistema de IA detecte notícias falsas com alta precisão, os acertos precisam ser bem altos (digamos 90%) e os erros bem baixos (digamos 10%), além de que os falsos alarmes devem permanecer baixos (digamos 10%) para que notícias verdadeiras não sejam chamadas de falsas. Se um sistema de verificação de IA, ou humano, nos for recomendado com base na detecção de sinais, podemos entender melhor sua qualidade.
Provavelmente haverá casos, como relatado em uma pesquisa recente, onde o conteúdo das notícias não seja completamente falso ou verdadeiro, mas parcialmente correto. Sabemos disso porque a velocidade dos ciclos de notícias implica que o que é considerado verdadeiro em um momento pode ser, mais tarde, considerado impreciso, e vice-versa. Portanto, um sistema de checagem de notícias falsas tem um grande desafio.
Se soubéssemos de antemão o que é falso e o que é real, quão precisos são os biomarcadores ao indicar inconscientemente o que é o quê? A resposta não é muito. A atividade neural geralmente é a mesma quando nos deparamos com notícias reais e falsas.
Quanto aos estudos de rastreamento ocular, é útil saber que há diferentes tipos de dados coletados (por exemplo, o tempo que nossos olhos fixam em um objeto, a frequência com que nossos olhos se movem em uma cena visual).
Assim, dependendo do que é analisado, alguns estudos mostram que dedicamos mais atenção ao ver conteúdo falso, enquanto outros mostram o oposto.
Já chegamos lá?
Sistemas de detecção de notícias falsas com IA no mercado já estão usando insights da ciência comportamental, para ajudar a sinalizar e alertar contra conteúdo falso. Portanto, não será difícil para esses sistemas começarem a aparecer em nossos feeds de notícias com proteções personalizadas para nosso perfil de usuário único. O problema disso tudo é que ainda há muito a se entender sobre o que funciona e, também, verificar se realmente queremos isso.
No pior cenário, só vemos notícias falsas como um problema online para justificar seu combate com IA. Mas conteúdo falso e impreciso está em toda parte e é discutido fora da internet. Além disso, não acreditamos automaticamente em todas as notícias falsas, às vezes usamos esse conteúdo em discussões para ilustrar ideias ruins.
Em um cenário ideal, a ciência de dados e a ciência comportamental têm confiança sobre a escala dos danos que as notícias falsas podem causar. Porém, mesmo assim, as aplicações de IA, combinadas com avanços científicos, ainda podem ser substitutos ineficazes para soluções menos sofisticadas, mas mais eficazes.
Artigos recomendados: Vigilância e Web
Fonte:https://techxplore.com/news/2024-11-accurate-ai-fake-news-detector.html
Nenhum comentário:
Postar um comentário