Páginas

18 de fev. de 2023

O Bing furioso é apenas o chatbot imitando os seres humanos, dizem especialistas




IP, 17/02/2023 



É provável que o nascente chatbot Bing da Microsoft se torne irritado ou até ameaçador porque basicamente imita o que aprendeu com as conversas online, disseram analistas e acadêmicos na sexta-feira.

Histórias de trocas de mensagens perturbadoras com o chatbot que chamaram a atenção esta semana incluem a inteligência artificial (IA) emitindo ameaças e contando sobre desejos de roubar código de armas nucleares, criar um vírus mortal ou estar vivo.

Acho que isso é basicamente uma imitação de conversas vistas online”, disse Graham Neubig, professor associado do instituto de tecnologias de linguagem da Carnegie Mellon University.

Então, quando a conversa mudar, provavelmente vai ficar nesse tipo de estado de raiva, ou dizer 'eu te amo' e outras coisas assim, porque tudo isso é coisa que já aconteceu online antes.”

Um chatbot, por design, exibe palavras que prevê serem as respostas mais prováveis, sem entender o significado ou o contexto.

No entanto, os humanos que participam de brincadeiras com programas naturalmente tendem a ler emoções e intenções no que um chatbot diz.

Modelos de linguagem grandes não têm conceito de 'verdade' – eles apenas sabem como completar melhor uma frase de uma maneira que seja estatisticamente provável com base em suas entradas e conjunto de treinamento”, disse o programador Simon Willison em um post de blog.

Então eles inventam coisas e depois as declaram com extrema confiança.

Laurent Daudet, co-fundador da empresa francesa de IA LightOn, teorizou que o chatbot aparentemente desonesto foi treinado em trocas de mensagens que se tornaram agressivas ou inconsistentes.

Resolver isso requer muito esforço e muito feedback humano, que também é a razão pela qual optamos por nos restringir por enquanto a usos comerciais e não mais de conversação”, disse Daudet à AFP.

- 'Fora dos trilhos' -

O chatbot do Bing foi projetado pela Microsoft e pela startup OpenAI, que vem causando sensação desde o lançamento em novembro do ChatGPT, o app texto capaz de gerar todo tipo de conteúdo escrito em segundos a partir de um simples pedido.

Desde que o ChatGPT entrou em cena, a tecnologia por trás dele, conhecida como IA generativa, tem despertado fascínio e preocupação.

Às vezes, o modelo tenta responder ou refletir no tom em que está sendo solicitado a fornecer respostas (e) que podem levar a um estilo que não pretendíamos”, disse a Microsoft em uma postagem no blog, observando que o bot é um projeto em progresso.

O chatbot do Bing disse em algumas trocas compartilhadas de mensagens que recebeu o nome de código “Sydney” durante o desenvolvimento e que recebeu regras de comportamento.

Essas regras incluem “as respostas de Sydney também devem ser positivas, interessantes, divertidas e envolventes”, de acordo com postagens online.

Diálogos perturbadores que combinam ameaças e declarações de amor podem ser devido a diretrizes de conflito para permanecer positivo enquanto imita o que a IA extraiu das trocas humanas, Willison teorizou.

Os chatbots parecem ser mais propensos a respostas perturbadoras ou bizarras durante conversas longas, perdendo a noção de para onde as trocas estão indo, disse à AFP o analista principal da eMarketer, Yoram Wurmser.

Eles podem realmente sair dos trilhos”, disse Wurmser.

É muito realista, porque (o chatbot) é muito bom em prever as próximas palavras que fariam parecer que ele tem sentimentos ou dar-lhe qualidades humanas; mas ainda são resultados estatísticos.

Artigos recomendados: IA e Tech


Fonte:https://insiderpaper.com/angry-bing-chatbot-just-mimicking-humans-say-experts/ 

Nenhum comentário:

Postar um comentário