IP, 17/02/2023
É provável que o nascente chatbot Bing da Microsoft se torne irritado ou até ameaçador porque basicamente imita o que aprendeu com as conversas online, disseram analistas e acadêmicos na sexta-feira.
Histórias de trocas de mensagens perturbadoras com o chatbot que chamaram a atenção esta semana incluem a inteligência artificial (IA) emitindo ameaças e contando sobre desejos de roubar código de armas nucleares, criar um vírus mortal ou estar vivo.
“Acho que isso é basicamente uma imitação de conversas vistas online”, disse Graham Neubig, professor associado do instituto de tecnologias de linguagem da Carnegie Mellon University.
“Então, quando a conversa mudar, provavelmente vai ficar nesse tipo de estado de raiva, ou dizer 'eu te amo' e outras coisas assim, porque tudo isso é coisa que já aconteceu online antes.”
Um chatbot, por design, exibe palavras que prevê serem as respostas mais prováveis, sem entender o significado ou o contexto.
No entanto, os humanos que participam de brincadeiras com programas naturalmente tendem a ler emoções e intenções no que um chatbot diz.
“Modelos de linguagem grandes não têm conceito de 'verdade' – eles apenas sabem como completar melhor uma frase de uma maneira que seja estatisticamente provável com base em suas entradas e conjunto de treinamento”, disse o programador Simon Willison em um post de blog.
“Então eles inventam coisas e depois as declaram com extrema confiança.”
Laurent Daudet, co-fundador da empresa francesa de IA LightOn, teorizou que o chatbot aparentemente desonesto foi treinado em trocas de mensagens que se tornaram agressivas ou inconsistentes.
“Resolver isso requer muito esforço e muito feedback humano, que também é a razão pela qual optamos por nos restringir por enquanto a usos comerciais e não mais de conversação”, disse Daudet à AFP.
- 'Fora dos trilhos' -
O chatbot do Bing foi projetado pela Microsoft e pela startup OpenAI, que vem causando sensação desde o lançamento em novembro do ChatGPT, o app texto capaz de gerar todo tipo de conteúdo escrito em segundos a partir de um simples pedido.
Desde que o ChatGPT entrou em cena, a tecnologia por trás dele, conhecida como IA generativa, tem despertado fascínio e preocupação.
“Às vezes, o modelo tenta responder ou refletir no tom em que está sendo solicitado a fornecer respostas (e) que podem levar a um estilo que não pretendíamos”, disse a Microsoft em uma postagem no blog, observando que o bot é um projeto em progresso.
O chatbot do Bing disse em algumas trocas compartilhadas de mensagens que recebeu o nome de código “Sydney” durante o desenvolvimento e que recebeu regras de comportamento.
Essas regras incluem “as respostas de Sydney também devem ser positivas, interessantes, divertidas e envolventes”, de acordo com postagens online.
Diálogos perturbadores que combinam ameaças e declarações de amor podem ser devido a diretrizes de conflito para permanecer positivo enquanto imita o que a IA extraiu das trocas humanas, Willison teorizou.
Os chatbots parecem ser mais propensos a respostas perturbadoras ou bizarras durante conversas longas, perdendo a noção de para onde as trocas estão indo, disse à AFP o analista principal da eMarketer, Yoram Wurmser.
“Eles podem realmente sair dos trilhos”, disse Wurmser.
“É muito realista, porque (o chatbot) é muito bom em prever as próximas palavras que fariam parecer que ele tem sentimentos ou dar-lhe qualidades humanas; mas ainda são resultados estatísticos.”
Artigos recomendados: IA e Tech
Fonte:https://insiderpaper.com/angry-bing-chatbot-just-mimicking-humans-say-experts/
Nenhum comentário:
Postar um comentário