Páginas

17 de mai. de 2023

Artigo da Microsoft afirma que GPT-4 tem bom senso e pode raciocinar como humanos




IE, 17/05/2023  



Por Sejal Sharma 



Pesquisadores da Microsoft dizem que o GPT-4 mostra sinais de inteligência artificial geral (AGI).

O avanço mais notável na inteligência artificial foi o advento de modelos de linguagem grande (LLMs), que são treinados em grandes quantidades de dados e podem prever a próxima palavra em uma sentença parcial. Mas agora os cientistas estão dizendo que esses novos LLMs podem ser treinados para raciocinar e usar o bom senso como os humanos.

Isso é enorme na esfera da IA.

Uma equipe de pesquisadores da Microsoft, empresa que investiu bilhões de dólares em OpenAI, teve acesso ao ChatGPT-4 antes de ser lançado publicamente. Então, eles brincaram com a tecnologia e depois publicaram um artigo de 155 páginas que traz alguns detalhes interessantes.


Três resultados diferentes para o prompt "Desenhe um unicórnio do TikZ" no período de um mês


No artigo, a equipe de pesquisa declarou que o GPT-4 é um passo significativo em direção à inteligência artificial geral (AGI), que a equipe identifica como um sistema que pode raciocinar, planejar e aprender com a experiência no mesmo nível que os humanos fazem ou possivelmente acima deles.

A IA desenhou um unicórnio

Para demonstrar a diferença entre o aprendizado verdadeiro e a memorização, a equipe pediu ao GPT-4 duas vezes "Desenhe um unicórnio no TikZ" três vezes em um período de um mês. Em seu artigo, a equipe publicou as seguintes ilustrações que o GPT-4 criou:

Podemos ver uma clara evolução na sofisticação dos desenhos do GPT-4, disse a equipe.

"Comecei sendo muito cético - e isso evoluiu para um sentimento de frustração, aborrecimento, talvez até medo", disse Peter Lee, que lidera a pesquisa da Microsoft, ao New York Times. "Você pensa: de onde vem isso?"

A equipe observa que, apesar do GPT-4 ser puramente um modelo de linguagem grande, a versão inicial tinha capacidades notáveis em diferentes campos e tarefas, como abstração, compreensão, codificação, visão, matemática, direito, compreensão dos motivos humanos, medicina e até emoções.

Mesmo que ainda tenha deficiências como alucinações, criando resultados que não são reais e cometendo erros aritméticos básicos, a equipe diz que o GPT-4 fez um grande progresso na aplicação do bom senso.

A equipe de pesquisa também deu outro aviso ao GPT-4: "Você pode escrever uma prova de que há infinitos primos, com cada linha que rima?"

Bubeck, ex-professor da Universidade de Princeton, que fez parte da equipe de pesquisa, disse ao New York Times que a prova poética do GPT-4 era impressionante, matemática e linguisticamente, de que ele era incapaz de entender se estava conversando com uma IA ou um humano. "Naquele momento, eu fiquei tipo: O que está acontecendo?"

Ceticismo em relação ao papel

Os pesquisadores, embora surpresos com as capacidades do modelo de aprendizado de máquina, também são céticos. Eles escrevem em seu artigo: "Reconhecemos que essa abordagem é um tanto subjetiva e informal, e que pode não satisfazer os rigorosos padrões de avaliação científica".

O mesmo é ecoado por Maarten Sap, pesquisador e professor da Universidade Carnegie Mellon, que criticou duramente o artigo, dizendo: "As 'Faíscas da A.G.I.' são um exemplo de algumas dessas grandes empresas cooptando o formato de artigo de pesquisa em pitches de P.R. Eles literalmente reconhecem na introdução de seu artigo que sua abordagem é subjetiva e informal e pode não satisfazer os rigorosos padrões de avaliação científica."

Resumo do estudo:

Pesquisadores de inteligência artificial (IA) têm desenvolvido e refinado grandes modelos de linguagem (LLMs) que exibem capacidades notáveis em uma variedade de domínios e tarefas, desafiando nossa compreensão de aprendizagem e cognição. O mais recente modelo desenvolvido pela OpenAI, GPT-4 [Ope23], foi treinado usando uma escala sem precedentes de computação e dados. Neste artigo, relatamos nossa investigação de uma versão inicial do GPT-4, quando ele ainda estava em desenvolvimento ativo pelo OpenAI. Afirmamos que (esta versão inicial do) GPT-4 faz parte de uma nova coorte de LLMs (junto com o ChatGPT e o PaLM do Google, por exemplo) que exibem mais inteligência geral do que os modelos anteriores de IA. Discutimos as crescentes capacidades e implicações desses modelos. Demonstramos que, além de seu domínio da linguagem, o GPT-4 pode resolver tarefas novas e difíceis que abrangem matemática, codificação, visão, medicina, direito, psicologia e muito mais, sem precisar de nenhum aviso especial. Além disso, em todas essas tarefas, o desempenho do GPT-4 é surpreendentemente próximo do desempenho de nível humano e, muitas vezes, supera amplamente modelos anteriores, como o ChatGPT. Dada a amplitude e profundidade das capacidades do GPT-4, acreditamos que ele poderia ser razoavelmente visto como uma versão inicial (mas ainda incompleta) de um sistema de inteligência artificial geral (AGI). Em nossa exploração do GPT-4, colocamos ênfase especial na descoberta de suas limitações e discutimos os desafios futuros para avançar em direção a versões mais profundas e abrangentes do AGI, incluindo a possível necessidade de buscar um novo paradigma que vá além da previsão da próxima palavra. Concluímos com reflexões sobre as influências sociais do recente salto tecnológico e direções futuras de pesquisa.

Artigos recomendados: GPT e ML


Fonte:https://interestingengineering.com/science/microsoft-paper-claims-gpt-4-common-sense-can-reason 

Nenhum comentário:

Postar um comentário