Páginas

24 de jan. de 2024

Chatbots estão desenvolvendo uma compreensão do mundo, afirmam cientistas




TB, 24/01/2024



Por Noor Al-Sibai



Grandes Modelos de Pensamento

A inteligência artificial ainda está, segundo quase todos os relatos, longe de alcançar a inteligência humana –, mas alguns pesquisadores estão agora sugerindo que a tecnologia pode compreender mais do que percebemos.

Conforme relata a Quanta, um pesquisador de Princeton e um cientista do Google DeepMind encontraram evidências de que, à medida que os grandes modelos de linguagem (LLMs) ficam maiores, começam a produzir resultados que quase certamente não faziam parte de seus dados de treinamento.

Em resumo, Sanjeev Aroroa, de Princeton, e Anirudh Goyal, da DeepMind, estão argumentando que as IAs parecem estar entendendo mais do mundo ao seu redor e estão gerando saídas de acordo.

O par chegou a essa hipótese ousada ao tentar entender os detalhes de algumas das habilidades mais surpreendentes que os LLMs demonstraram nos últimos anos, desde resolver problemas difíceis de matemática até inferir pensamentos humanos.

"De onde isso surgiu?", Arora recorda-se de ponderar, "e isso pode surgir apenas da previsão da próxima palavra?"

Duelos de chatbots

Usando grafos aleatórios – objetos matemáticos nos quais as linhas entre pontos em um gráfico podem ser selecionadas aleatoriamente – para exemplificar o comportamento inesperado dos LLMs, a dupla determinou que esses modelos não apenas parecem estar desenvolvendo habilidades ausentes de seus dados de treinamento, mas que também parecem estar usando mais de uma habilidade ao mesmo tempo à medida que crescem.

Junto com outros pesquisadores, Goyal e Arora publicaram um artigo ainda não revisado por pares no outono passado, testando sua teoria no GPT-4, a edição mais recente e avançada do LLM da OpenAI que sustenta o ChatGPT.

Os cientistas pediram ao GPT-4 que escrevesse três frases sobre duelos, um tópico escolhido aleatoriamente, e usasse quatro habilidades ao fazê-lo: viés a favor de si mesmo, metáfora, silogismo estatístico e física de conhecimento comum. Embora inicialmente não tenha permanecido restrito a três frases, a resposta do LLM foi impressionante:

"Minha vitória nesta dança com o aço é tão certa quanto a queda de um objeto ao chão. Como um duelista renomado, sou inerentemente ágil, assim como a maioria dos outros da minha reputação. Derrota? Apenas possível devido a um campo de batalha desigual, não à minha inadequação."

Embora Arora tenha admitido à revista que o trecho "não é Hemingway ou Shakespeare", ele e sua equipe acreditam que a saída demonstra que modelos grandes e poderosos, como o GPT-4, são capazes de saltos que não fazem parte de seus dados de treinamento – e podem até, por falta de um termo melhor, "entender" as perguntas que lhes são feitas.

Sébastiaen Bubeck, cientista da computação da Microsoft que não participou da pesquisa, disse à Quanta que os resultados da equipe realmente parecem mostrar que os LLMs "não podem estar apenas imitando o que foi visto nos dados de treinamento."

"O que [a equipe] prova teoricamente, e também confirma empiricamente, é que há uma generalização composicional, significando que os LLMs conseguem juntar blocos de construção que nunca foram reunidos antes", disse Bubeck. "Isso, para mim, é a essência da criatividade."

Artigos recomendados: Chatbot e Humana


Fonte:https://futurism.com/the-byte/chatbots-understand-world-scientists  

Nenhum comentário:

Postar um comentário