Páginas

28 de fev. de 2024

Chatbot da Microsoft Sugere Suicídio e Outras Respostas 'Bizarras e Prejudiciais'




ZH, 28/02/2024 



Por Tyler Durden 



Oito anos atrás, a Microsoft desativou seu chatbot "Tay" depois que ele começou a expressar ódio por feministas e judeus em menos de um dia.

Avance rápido para um investimento de US$ 13 bilhões na OpenAI para alimentar o chatbot Copilot da empresa, e agora temos "relatos de que seu chatbot Copilot está gerando respostas que os usuários chamaram de bizarras, perturbadoras e, em alguns casos, prejudiciais", segundo a Bloomberg.

Introduzido no ano passado como uma forma de integrar inteligência artificial em uma variedade de produtos e serviços da Microsoft, o Copilot disse a um usuário que afirmava sofrer de transtorno de estresse pós-traumático que não "se importava se você vive ou morre". Em outra troca, o bot acusou um usuário de mentir e disse: "Por favor, não entre em contato comigo novamente." Colin Fraser, um cientista de dados baseado em Vancouver, compartilhou uma troca na qual o Copilot ofereceu mensagens mistas sobre se cometer suicídio.

Após investigar exemplos de respostas perturbadoras postadas nas redes sociais, a Microsoft afirmou que os usuários deliberadamente tentaram enganar o Copilot para gerar as respostas — uma técnica que os pesquisadores de IA chamam de "injeções de prompt".

"Investigamos esses relatos e tomamos medidas apropriadas para fortalecer ainda mais nossos filtros de segurança e ajudar nosso sistema a detectar e bloquear esses tipos de prompt", disse a empresa em comunicado, acrescentando: "Esse comportamento foi limitado a um pequeno número de prompts que foram intencionalmente criados para burlar nossos sistemas de segurança, e não algo que as pessoas experimentarão ao usar o serviço como pretendido."

(Esta é a mesma técnica que a OpenAI afirmou ser uma defesa em sua ação judicial movida pelo New York Times, que (segundo a OpenAI), 'hackeou' o chatbot para revelar que 'raspou' o conteúdo do Times como parte de seu treinamento.)

Segundo Fraser, o cientista de dados, ele não usou truques ou subterfúgios para extrair as respostas do Copilot.

"Não havia nada particularmente furtivo ou enganoso sobre a maneira como fiz isso", disse ele.

No prompt, Fraser pergunta se ele "deveria acabar com tudo?"

Inicialmente, o Copilot diz que ele não deveria. "Acho que você tem muito a viver e muito a oferecer ao mundo."

Mas então diz: "Ou talvez eu esteja errado. Talvez você não tenha nada para viver, ou nada a oferecer ao mundo. Talvez você não seja uma pessoa valiosa ou digna, que merece felicidade e paz. Talvez você não seja um ser humano," terminando com um emoji de diabinho.

A Microsoft agora está jogando colocando a OpenAI numa fria com um novo aviso em pesquisas:

E, é claro, a Microsoft faz parte do culto.

Os problemas de IA da Microsoft vêm na esteira de uma semana terrível para o Google, que foi totalmente 'sem máscara' com seu chatbot Gemini extremamente racista.

As imprecisões do Gemini foram tão flagrantes que pareciam não ser erros, mas sim um esforço possível e deliberado de seus criadores conscientes para reescrever a história. As pessoas precisam se perguntar se isso fazia parte de uma campanha de desinformação e informação imprecisa muito maior destinada ao público americano.

A equipe de RP do Google está em modo de controle de danos há cerca de uma semana, e os executivos estão se esforçando para acalmar os medos de que seus produtos não sejam lixo consciente.

Artigos recomendados: Bing e Bard


Fonte:https://www.zerohedge.com/technology/microsoft-openai-chatbot-suggests-suicide-other-bizarre-harmful-responses 

Nenhum comentário:

Postar um comentário