28 de nov. de 2024

Modelo de IA que imita a personalidade humana levanta questões sobre deepfakes




BU, 28/11/2024 



Por Masha Borak



Golpistas já utilizam deepfakes de áudio e vídeo para enganar familiares, amigos e parceiros comerciais de suas vítimas. Mas o que aconteceria se eles também pudessem imitar suas personalidades?  

Pesquisadores de Stanford e do Google DeepMind treinaram modelos de IA para replicar a personalidade de uma pessoa após apenas duas horas de conversa.  

O estudo envolveu mais de 1.000 participantes que participaram de entrevistas de duas horas, abrangendo diversos tópicos: vida pessoal, opiniões sobre questões sociais, testes de personalidade e lógica, experimentos em ciências sociais e jogos econômicos. As respostas foram gravadas e usadas para treinar modelos generativos de IA personalizados para cada participante. Esses modelos foram chamados de “agentes de simulação”.  

Duas semanas depois, os participantes repetiram os mesmos testes, cujos resultados foram comparados com as respostas dadas pelos agentes de simulação. Os modelos de IA replicaram as respostas dos participantes com 85% de precisão.  

O desempenho dos agentes generativos ao replicar as respostas no General Social Survey foi 85% tão preciso, quanto os próprios participantes replicando suas respostas duas semanas depois, além de serem comparáveis na previsão de traços de personalidade e resultados em experimentos replicados”, observa o artigo.  

O estudo foi publicado no arXiv e ainda não foi revisado por pares. Embora a pesquisa não se aprofunde diretamente em deepfakes, os cientistas envolvidos veem muitos usos potenciais para os agentes gerativos.  

Segundo o MIT Technology Review, os agentes de simulação podem ajudar cientistas sociais e outros pesquisadores a conduzir estudos que, de outra forma, seriam caros, inviáveis ou antiéticos de realizar com sujeitos humanos reais.  

Além disso, eles podem contribuir para o desenvolvimento de agentes de IA mais robustos. Embora a definição exata ainda esteja em debate, agentes de IA geralmente são ferramentas de software projetadas para completar tarefas e alcançar objetivos de forma autônoma, utilizando técnicas como processamento de linguagem natural, aprendizado de máquina e visão computacional.  

Se você puder ter várias versões menores de 'você' rodando por aí e tomando as mesmas decisões que você tomaria, acho que esse é, em última análise, o futuro”, afirma Joon Sung Park, doutorando de Stanford que liderou a pesquisa.

Artigos recomendados: MIT e Engenharia 


Fonte:https://www.biometricupdate.com/202411/ai-model-that-copies-human-personality-opens-questions-on-deepfakes 

Nenhum comentário:

Postar um comentário

Related Posts Plugin for WordPress, Blogger...