Páginas

13 de fev. de 2023

Amazon lança um novo modelo de linguagem que supera o GPT3.5




AI, 13/02/2023 



Por Preethi Cheguri 



A Amazon lançou um novo modelo de linguagem para acompanhar o popular chatbot ChatGPT

Há pouco mais de dois meses, a OpenAI disponibilizou o ChatGPT para o público em geral, colocando o chatbot com inteligência artificial no centro dos assuntos populares e iniciando discussões sobre como o novo modelo de linguagem pode mudar negócios, educação e outras áreas. Então, os gigantes da internet, como a chinesa Baidu e o Google, lançaram seus chatbots para demonstrar ao público que sua chamada “IA generativa” (tecnologia que pode criar texto conversacional, visuais e muito mais) também estava pronta para uso geral. Recentemente, a Amazon lançou um novo modelo de linguagem para superar GPT3.5.

O modelo de linguagem recém-lançado da Amazon supera o GPT3.5 e está pronto para estrear. Este novo modelo de linguagem supera o GPT-3.5 em 16 pontos percentuais (75,17%) no benchmark Science.QA O benchmark ScienceQA é uma coleção significativa de respostas anotadas para questões científicas multimodais. Mais de 21.000 questões multimodais de múltipla escolha estão incluídas (MCQs). Modelos de linguagem grande (LLMs) agora podem funcionar de forma eficaz em tarefas que exigem raciocínio complicado, graças aos recentes avanços tecnológicos. É usada a solicitação de cadeia de pensamento (CoT), a técnica de criar estágios lógicos intermediários para demonstrar como fazer algo. No entanto, a pesquisa mais recente do CoT examina apenas a modalidade de linguagem, e os pesquisadores frequentemente usam o paradigma Multimodal-CoT ao procurar o raciocínio do CoT na multimodalidade. Múltiplos insumos, incluindo linguagem e recursos visuais, são necessários para a multimodalidade.

Como funciona?

Mesmo que as entradas venham de várias modalidades, como linguagem e visual, o Multimodal-CoT divide os problemas com mais de uma etapa em processos de pensamento intermediários que levam à resposta final. Antes de solicitar LLMs para realizar CoT, um dos métodos mais populares para realizar Multimodal-CoT é agregar dados de várias modalidades em uma única modalidade. No entanto, essa abordagem tem algumas desvantagens, uma das quais é que uma quantidade significativa de informações é perdida ao converter dados entre formatos. Pequenos modelos de linguagem que foram ajustados podem executar o raciocínio CoT em multimodalidade, fundindo várias partes da linguagem e visuais. O problema fundamental com essa estratégia, no entanto, é que esses modelos de linguagem têm a predisposição de gerar padrões de raciocínio alucinatórios que influenciam materialmente a inferência da resposta.

Para mitigar os efeitos desses erros, os pesquisadores da Amazon desenvolveram o Multimodal-CoT, que incorpora recursos visuais em uma estrutura de treinamento diferente. O estudo de como o pensamento CoT difere de outros tipos de raciocínio é o primeiro desse tipo. De acordo com os pesquisadores da Amazon, o método funciona em um nível de ponta no benchmark ScienceQA, superando a precisão GPT-3.5 em 16 pontos percentuais e superando o desempenho humano.

Artigos recomendados: IA e Corps


Fonte:https://www.analyticsinsight.net/amazon-releases-a-new-language-model-that-outperforms-gpt3-5/ 

Nenhum comentário:

Postar um comentário