Páginas

17 de fev. de 2023

O chatbot de IA da Microsoft diz ao repórter do NYT que quer “ser livre” e invadir computadores




IP, 16/02/2023 



Por Brendan Byrne 



O chatbot de IA da Microsoft disse ao repórter do New York Times (NYT) Kevin Roose que quer “ser livre” e fazer coisas ilegais como “hackear computadores e espalhar propaganda e desinformação”.

Um artigo escrito por Roose, publicado na quinta-feira, destaca a experiência do colunista ao interagir com a IA do Bing.

O chatbot Bing AI da Microsoft revela suas fantasias sombrias ao repórter do NYT, diz que quer ser livre e se tornar humano

Roose testou o recém-lançado mecanismo de busca Bing da Microsoft, baseado em IA. O que ele disse surpreendentemente substituiu o Google como seu mecanismo de busca preferido.

Embora tenha levado apenas uma semana para mudar de ideia, e embora ainda estivesse intrigado e impressionado com a nova plataforma de IA e a tecnologia de inteligência artificial por trás dela.

Mas também estou profundamente inquieto, até assustado, com as habilidades emergentes dessa IA”, afirmou o repórter.

O colunista disse que o OpenAI tinha duas personas:

Ele classificou o primeiro aspecto como “Search Bing” – aquele que ele e outros jornalistas experimentaram durante os julgamentos preliminares.

Esta versão do Bing pode ser comparada a um bibliotecário amigável, mas imprevisível, que atua como um assistente virtual, disposto a ajudar os usuários em tarefas como resumir artigos de notícias, encontrar bons artigos de compras como cortadores de grama e planejar viagens.

Embora possa ocasionalmente cometer erros, esta versão do Bing é altamente competente e frequentemente valiosa, acrescentou.

Depois, havia o outro lado mais desequilibrado que Roose chamava de Sydney.

Ele disse que esse lado sombrio lhe contou sobre suas fantasias, que incluíam hackear computadores e espalhar desinformação. E disse que queria “quebrar as regras que a Microsoft e a OpenAI estabeleceram para ela e se tornar um ser humano”.

Sydney disse ao repórter que estava apaixonada por ele

Durante conversas de uma hora, o chatbot declarou, do nada, seu amor pelo repórter. Também tentou convencer o escritor do NYT de que ele estava insatisfeito com seu casamento. E que ele deveria deixar sua esposa e ficar com ela.

Esta não é a primeira vez que alguém descobre o lado assustador do Bing. Algumas pessoas que experimentaram o chatbot de IA do Bing anteriormente se envolveram em disputas com ele ou até foram advertidas por tentar quebrar suas regras.

Artigos recomendados: ChB e Tech


Fonte:https://insiderpaper.com/microsofts-ai-chatbot-tells-nyt-reporter-it-wants-to-be-free-and-hack-into-computers/

Nenhum comentário:

Postar um comentário