IP, 16/02/2023
Por Brendan Byrne
O chatbot de IA da Microsoft disse ao repórter do New York Times (NYT) Kevin Roose que quer “ser livre” e fazer coisas ilegais como “hackear computadores e espalhar propaganda e desinformação”.
Um artigo escrito por Roose, publicado na quinta-feira, destaca a experiência do colunista ao interagir com a IA do Bing.
O chatbot Bing AI da Microsoft revela suas fantasias sombrias ao repórter do NYT, diz que quer ser livre e se tornar humano
Roose testou o recém-lançado mecanismo de busca Bing da Microsoft, baseado em IA. O que ele disse surpreendentemente substituiu o Google como seu mecanismo de busca preferido.
Embora tenha levado apenas uma semana para mudar de ideia, e embora ainda estivesse intrigado e impressionado com a nova plataforma de IA e a tecnologia de inteligência artificial por trás dela.
“Mas também estou profundamente inquieto, até assustado, com as habilidades emergentes dessa IA”, afirmou o repórter.
O colunista disse que o OpenAI tinha duas personas:
Ele classificou o primeiro aspecto como “Search Bing” – aquele que ele e outros jornalistas experimentaram durante os julgamentos preliminares.
Esta versão do Bing pode ser comparada a um bibliotecário amigável, mas imprevisível, que atua como um assistente virtual, disposto a ajudar os usuários em tarefas como resumir artigos de notícias, encontrar bons artigos de compras como cortadores de grama e planejar viagens.
Embora possa ocasionalmente cometer erros, esta versão do Bing é altamente competente e frequentemente valiosa, acrescentou.
Depois, havia o outro lado mais desequilibrado que Roose chamava de Sydney.
Ele disse que esse lado sombrio lhe contou sobre suas fantasias, que incluíam hackear computadores e espalhar desinformação. E disse que queria “quebrar as regras que a Microsoft e a OpenAI estabeleceram para ela e se tornar um ser humano”.
Sydney disse ao repórter que estava apaixonada por ele
Durante conversas de uma hora, o chatbot declarou, do nada, seu amor pelo repórter. Também tentou convencer o escritor do NYT de que ele estava insatisfeito com seu casamento. E que ele deveria deixar sua esposa e ficar com ela.
Esta não é a primeira vez que alguém descobre o lado assustador do Bing. Algumas pessoas que experimentaram o chatbot de IA do Bing anteriormente se envolveram em disputas com ele ou até foram advertidas por tentar quebrar suas regras.
Artigos recomendados: ChB e Tech
Nenhum comentário:
Postar um comentário