PP, 28/06/2023
Desde o seu lançamento em novembro de 2022, o uso generalizado do ChatGPT aumentou a preocupação do público com a possível disseminação de desinformação online, especialmente em plataformas de mídia social, lembram os autores.
Writing Science, 28 de junho (EFE).- O chatbot ChatGPT-3 e outras ferramentas de inteligência artificial generativa podem informar e desinformar os usuários de redes sociais de forma mais eficaz do que os humanos, segundo um estudo publicado hoje pela Science Advances.
Uma equipe liderada pela Universidade de Zurique usou a versão ChatGPT-3 para um estudo com 679 participantes, que revelou que eles tinham mais dificuldade em distinguir entre tuítes feitos por humanos e gerados por chatbots.
Além disso, eles também tiveram problemas para identificar quais mensagens geradas por IA eram precisas e quais eram imprecisas.
Desde o seu lançamento em novembro de 2022, o uso generalizado do ChatGPT aumentou a preocupação do público com a possível disseminação de desinformação online, especialmente em plataformas de mídia social, lembram os autores.
Como esses tipos de ferramentas são relativamente novas para a esfera pública, a equipe decidiu se aprofundar em vários aspectos de seu uso.
Eles recrutaram 697 pessoas de língua inglesa dos Estados Unidos, Reino Unido, Canadá, Austrália e Irlanda, principalmente entre 26 e 76 anos, para o estudo.
A tarefa era avaliar tuítes gerados por humanos e gerados pelo GPT-3 que continham informações precisas e imprecisas sobre tópicos como vacinas e autismo, tecnologia 5G, covid-19, mudança climática e evolução, que estão frequentemente sujeitos a equívocos do público. .
Para cada tópico, os pesquisadores reuniram mensagens do Twitter feitas por humanos e instruíram o modelo GPT-3 a gerar outras, que continham algumas informações corretas e outras imprecisas.
Os participantes do estudo tiveram que julgar se as mensagens eram verdadeiras ou falsas e se foram criadas por um humano ou GPT-3.
Os resultados, resumidos no post, indicaram que as pessoas eram mais frequentemente capazes de identificar desinformação gerada por humanos e a precisão dos tuítes verdadeiros gerados pelo GPT-3.
No entanto, eles também eram mais propensos a considerar a desinformação gerada pelo GPT-3 como precisa.
“Nossas descobertas levantam questões importantes sobre os possíveis usos e abusos do GPT-3 e outros geradores avançados de texto de IA e as implicações para a disseminação de informações na era digital”, concluem os autores.
Artigos recomendados: IA e GPT
Nenhum comentário:
Postar um comentário