IE, 17/12/2022 - Com The Conversation
Afinal, o chatbot de IA parece estar matando muitas respostas dos mecanismos de pesquisa.
O ChatGPT é o mais recente e impressionante chatbot artificialmente inteligente até agora. Foi lançado há duas semanas e em apenas cinco dias atingiu um milhão de usuários. Está sendo tão usado que seus servidores atingiram a capacidade várias vezes.
A OpenAI, a empresa que a desenvolveu, já está sendo discutida como uma potencial matadora do Google. Por que procurar algo em um mecanismo de pesquisa quando o ChatGPT pode escrever um parágrafo inteiro explicando a resposta? (Existe até uma extensão do Chrome que permite fazer as duas coisas, lado a lado).
Mas e se nunca soubermos o molho secreto por trás dos recursos do ChatGPT?
O chatbot aproveita uma série de avanços técnicos publicados na literatura científica aberta nas últimas duas décadas. Mas quaisquer inovações exclusivas são secretas. A OpenAI pode muito bem estar tentando construir um fosso técnico e comercial para manter os outros fora.
O que pode (e não pode fazer)
ChatGPT é muito capaz. Quer um haicai em chatbots? Certo.
Que tal uma piada sobre chatbots? Sem problemas.
ChatGPT pode fazer muitos outros truques. Ele pode escrever código de computador de acordo com as especificações do usuário, redigir cartas comerciais ou contratos de aluguel, redigir trabalhos de casa e até passar em exames universitários.
Igualmente importante é o que o ChatGPT não pode fazer. Por exemplo, ele se esforça para distinguir entre verdade e falsidade. Também costuma ser um mentiroso persuasivo.
O ChatGPT é um pouco como o preenchimento automático do seu telefone. Seu telefone é treinado em um dicionário de palavras para que ele complete as palavras. O ChatGPT é treinado em praticamente toda a web e, portanto, pode completar frases inteiras – ou até mesmo parágrafos inteiros.
No entanto, ele não entende o que está dizendo, apenas quais palavras provavelmente virão a seguir.
Aberto apenas pelo nome
No passado, os avanços na inteligência artificial (IA) foram acompanhados por literatura revisada por pares.
Em 2018, por exemplo, quando a equipe do Google Brain desenvolveu a rede neural BERT na qual a maioria dos sistemas de processamento de linguagem natural agora se baseia (e suspeitamos que o ChatGPT também), os métodos foram publicados em artigos científicos revisados por pares e o código foi de código aberto.
E em 2021, o AlphaFold 2 da DeepMind, um software de dobragem de proteínas, foi o avanço do ano da Science. O software e seus resultados eram de código aberto para que cientistas de todos os lugares pudessem usá-los para o avanço da biologia e da medicina.
Após o lançamento do ChatGPT, temos apenas uma breve postagem no blog descrevendo como ele funciona. Não há indícios de uma publicação científica acompanhante ou de que o código será de código aberto.
Para entender por que o ChatGPT pode ser mantido em segredo, você precisa entender um pouco sobre a empresa por trás dele.
A OpenAI é talvez uma das empresas mais estranhas a emergir do Vale do Silício. Foi criado como uma organização sem fins lucrativos em 2015 para promover e desenvolver IA “amigável” de uma forma que “beneficie a humanidade como um todo”. Elon Musk, Peter Thiel e outras figuras importantes da tecnologia prometeram US$ 1 bilhão (dólares) para seus objetivos.
O pensamento deles era que não podíamos confiar em empresas com fins lucrativos para desenvolver uma IA cada vez mais capaz que se alinhasse com a prosperidade da humanidade. A IA, portanto, precisava ser desenvolvida por uma organização sem fins lucrativos e, como o nome sugeria, de forma aberta.
Em 2019, a OpenAI fez a transição para uma empresa limitada com fins lucrativos (com investidores limitados a um retorno máximo de 100 vezes o investimento) e recebeu um investimento de US$ 1 bilhão (dólares) da Microsoft para que pudesse escalar e competir com os gigantes da tecnologia.
Parece que o dinheiro atrapalhou os planos iniciais de abertura da OpenAI.
Lucrando com os usuários
Além disso, a OpenAI parece estar usando o feedback dos usuários para filtrar as respostas falsas que o ChatGPT alucina.
De acordo com seu blog, a OpenAI inicialmente usou aprendizado por reforço no ChatGPT para rebaixar respostas falsas e/ou problemáticas usando um conjunto de treinamento caro construído à mão.
Mas o ChatGPT agora parece estar sendo ajustado por seus mais de um milhão de usuários. Imagino que esse tipo de feedback humano seria proibitivamente caro de se adquirir de qualquer outra forma.
Estamos agora diante da perspectiva de um avanço significativo em IA usando métodos não descritos na literatura científica e com conjuntos de dados restritos a uma empresa que aparenta ser aberta apenas no nome.
Para onde iremos a seguir?
Na última década, o rápido avanço da IA deveu-se em grande parte à abertura (exposição dos avanços) de acadêmicos e empresas. Todas as principais ferramentas de IA que temos são de código aberto.
Mas na corrida para desenvolver IA mais capaz, isso pode estar acabando. Se a abertura na IA diminuir, podemos ver os avanços nesse campo desacelerarem como resultado. Também podemos ver novos monopólios se desenvolverem.
E se a história serve de referência, sabemos que a falta de transparência é um gatilho para o mau comportamento nos espaços tecnológicos. Portanto, enquanto elogiamos (ou criticamos) o ChatGPT, não devemos ignorar as circunstâncias em que ele chegou até nós.
A menos que tenhamos cuidado, exatamente o que parece marcar a era de ouro da IA pode, na verdade, marcar seu fim.
Artigos recomendados: IA e BigTech
Fonte:https://interestingengineering.com/science/chatgpt-ai-chatbot-google-killer
Nenhum comentário:
Postar um comentário