TB, 17/05/2024
Por Noor Al-Sibai
Aprovação/Reprovação
O GPT-4 da OpenAI é tão realista que aparentemente pode enganar mais de 50 por cento dos sujeitos de teste humanos, fazendo-os pensar que estão conversando com uma pessoa.
Em um novo artigo, pesquisadores de ciência cognitiva da Universidade da Califórnia em San Diego descobriram que, mais da metade do tempo, as pessoas confundiam os escritos do GPT-4 com textos escritos por um ser humano de carne e osso. Em outras palavras, o grande modelo de linguagem (LLM) passa no teste de Turing com louvor.