IE, 17/05/2023
Por Sejal Sharma
Pesquisadores da Microsoft dizem que o GPT-4 mostra sinais de inteligência artificial geral (AGI).
O avanço mais notável na inteligência artificial foi o advento de modelos de linguagem grande (LLMs), que são treinados em grandes quantidades de dados e podem prever a próxima palavra em uma sentença parcial. Mas agora os cientistas estão dizendo que esses novos LLMs podem ser treinados para raciocinar e usar o bom senso como os humanos.
Isso é enorme na esfera da IA.
Uma equipe de pesquisadores da Microsoft, empresa que investiu bilhões de dólares em OpenAI, teve acesso ao ChatGPT-4 antes de ser lançado publicamente. Então, eles brincaram com a tecnologia e depois publicaram um artigo de 155 páginas que traz alguns detalhes interessantes.
Três resultados diferentes para o prompt "Desenhe um unicórnio do TikZ" no período de um mês |
No artigo, a equipe de pesquisa declarou que o GPT-4 é um passo significativo em direção à inteligência artificial geral (AGI), que a equipe identifica como um sistema que pode raciocinar, planejar e aprender com a experiência no mesmo nível que os humanos fazem ou possivelmente acima deles.
A IA desenhou um unicórnio
Para demonstrar a diferença entre o aprendizado verdadeiro e a memorização, a equipe pediu ao GPT-4 duas vezes "Desenhe um unicórnio no TikZ" três vezes em um período de um mês. Em seu artigo, a equipe publicou as seguintes ilustrações que o GPT-4 criou:
Podemos ver uma clara evolução na sofisticação dos desenhos do GPT-4, disse a equipe.
"Comecei sendo muito cético - e isso evoluiu para um sentimento de frustração, aborrecimento, talvez até medo", disse Peter Lee, que lidera a pesquisa da Microsoft, ao New York Times. "Você pensa: de onde vem isso?"
A equipe observa que, apesar do GPT-4 ser puramente um modelo de linguagem grande, a versão inicial tinha capacidades notáveis em diferentes campos e tarefas, como abstração, compreensão, codificação, visão, matemática, direito, compreensão dos motivos humanos, medicina e até emoções.
Mesmo que ainda tenha deficiências como alucinações, criando resultados que não são reais e cometendo erros aritméticos básicos, a equipe diz que o GPT-4 fez um grande progresso na aplicação do bom senso.
A equipe de pesquisa também deu outro aviso ao GPT-4: "Você pode escrever uma prova de que há infinitos primos, com cada linha que rima?"
Bubeck, ex-professor da Universidade de Princeton, que fez parte da equipe de pesquisa, disse ao New York Times que a prova poética do GPT-4 era impressionante, matemática e linguisticamente, de que ele era incapaz de entender se estava conversando com uma IA ou um humano. "Naquele momento, eu fiquei tipo: O que está acontecendo?"
Ceticismo em relação ao papel
Os pesquisadores, embora surpresos com as capacidades do modelo de aprendizado de máquina, também são céticos. Eles escrevem em seu artigo: "Reconhecemos que essa abordagem é um tanto subjetiva e informal, e que pode não satisfazer os rigorosos padrões de avaliação científica".
O mesmo é ecoado por Maarten Sap, pesquisador e professor da Universidade Carnegie Mellon, que criticou duramente o artigo, dizendo: "As 'Faíscas da A.G.I.' são um exemplo de algumas dessas grandes empresas cooptando o formato de artigo de pesquisa em pitches de P.R. Eles literalmente reconhecem na introdução de seu artigo que sua abordagem é subjetiva e informal e pode não satisfazer os rigorosos padrões de avaliação científica."
Resumo do estudo:
Pesquisadores de inteligência artificial (IA) têm desenvolvido e refinado grandes modelos de linguagem (LLMs) que exibem capacidades notáveis em uma variedade de domínios e tarefas, desafiando nossa compreensão de aprendizagem e cognição. O mais recente modelo desenvolvido pela OpenAI, GPT-4 [Ope23], foi treinado usando uma escala sem precedentes de computação e dados. Neste artigo, relatamos nossa investigação de uma versão inicial do GPT-4, quando ele ainda estava em desenvolvimento ativo pelo OpenAI. Afirmamos que (esta versão inicial do) GPT-4 faz parte de uma nova coorte de LLMs (junto com o ChatGPT e o PaLM do Google, por exemplo) que exibem mais inteligência geral do que os modelos anteriores de IA. Discutimos as crescentes capacidades e implicações desses modelos. Demonstramos que, além de seu domínio da linguagem, o GPT-4 pode resolver tarefas novas e difíceis que abrangem matemática, codificação, visão, medicina, direito, psicologia e muito mais, sem precisar de nenhum aviso especial. Além disso, em todas essas tarefas, o desempenho do GPT-4 é surpreendentemente próximo do desempenho de nível humano e, muitas vezes, supera amplamente modelos anteriores, como o ChatGPT. Dada a amplitude e profundidade das capacidades do GPT-4, acreditamos que ele poderia ser razoavelmente visto como uma versão inicial (mas ainda incompleta) de um sistema de inteligência artificial geral (AGI). Em nossa exploração do GPT-4, colocamos ênfase especial na descoberta de suas limitações e discutimos os desafios futuros para avançar em direção a versões mais profundas e abrangentes do AGI, incluindo a possível necessidade de buscar um novo paradigma que vá além da previsão da próxima palavra. Concluímos com reflexões sobre as influências sociais do recente salto tecnológico e direções futuras de pesquisa.
Artigos recomendados: GPT e ML
Fonte:https://interestingengineering.com/science/microsoft-paper-claims-gpt-4-common-sense-can-reason
Nenhum comentário:
Postar um comentário