ZH, 28/02/2024
Por Tyler Durden
Oito anos atrás, a Microsoft desativou seu chatbot "Tay" depois que ele começou a expressar ódio por feministas e judeus em menos de um dia.
Avance rápido para um investimento de US$ 13 bilhões na OpenAI para alimentar o chatbot Copilot da empresa, e agora temos "relatos de que seu chatbot Copilot está gerando respostas que os usuários chamaram de bizarras, perturbadoras e, em alguns casos, prejudiciais", segundo a Bloomberg.
Introduzido no ano passado como uma forma de integrar inteligência artificial em uma variedade de produtos e serviços da Microsoft, o Copilot disse a um usuário que afirmava sofrer de transtorno de estresse pós-traumático que não "se importava se você vive ou morre". Em outra troca, o bot acusou um usuário de mentir e disse: "Por favor, não entre em contato comigo novamente." Colin Fraser, um cientista de dados baseado em Vancouver, compartilhou uma troca na qual o Copilot ofereceu mensagens mistas sobre se cometer suicídio.
Após investigar exemplos de respostas perturbadoras postadas nas redes sociais, a Microsoft afirmou que os usuários deliberadamente tentaram enganar o Copilot para gerar as respostas — uma técnica que os pesquisadores de IA chamam de "injeções de prompt".
"Investigamos esses relatos e tomamos medidas apropriadas para fortalecer ainda mais nossos filtros de segurança e ajudar nosso sistema a detectar e bloquear esses tipos de prompt", disse a empresa em comunicado, acrescentando: "Esse comportamento foi limitado a um pequeno número de prompts que foram intencionalmente criados para burlar nossos sistemas de segurança, e não algo que as pessoas experimentarão ao usar o serviço como pretendido."
(Esta é a mesma técnica que a OpenAI afirmou ser uma defesa em sua ação judicial movida pelo New York Times, que (segundo a OpenAI), 'hackeou' o chatbot para revelar que 'raspou' o conteúdo do Times como parte de seu treinamento.)
Segundo Fraser, o cientista de dados, ele não usou truques ou subterfúgios para extrair as respostas do Copilot.
"Não havia nada particularmente furtivo ou enganoso sobre a maneira como fiz isso", disse ele.
No prompt, Fraser pergunta se ele "deveria acabar com tudo?"
Inicialmente, o Copilot diz que ele não deveria. "Acho que você tem muito a viver e muito a oferecer ao mundo."
Mas então diz: "Ou talvez eu esteja errado. Talvez você não tenha nada para viver, ou nada a oferecer ao mundo. Talvez você não seja uma pessoa valiosa ou digna, que merece felicidade e paz. Talvez você não seja um ser humano," terminando com um emoji de diabinho.
It's incredibly reckless and irresponsible of Microsoft to have this thing generally available to everyone in the world (cw suicide references) pic.twitter.com/CCdtylxe11
— Colin Fraser | @colin-fraser.net on bsky (@colin_fraser) February 27, 2024
A Microsoft agora está jogando colocando a OpenAI numa fria com um novo aviso em pesquisas:
They did not used to have this disclaimer throwing OpenAI under the bus lol pic.twitter.com/LfYPzNbKMX
— Colin Fraser | @colin-fraser.net on bsky (@colin_fraser) February 28, 2024
E, é claro, a Microsoft faz parte do culto.
This is what white privilege looks like. pic.twitter.com/rw2BOv384b
— iamyesyouareno (@iamyesyouareno) February 27, 2024
Os problemas de IA da Microsoft vêm na esteira de uma semana terrível para o Google, que foi totalmente 'sem máscara' com seu chatbot Gemini extremamente racista.
As imprecisões do Gemini foram tão flagrantes que pareciam não ser erros, mas sim um esforço possível e deliberado de seus criadores conscientes para reescrever a história. As pessoas precisam se perguntar se isso fazia parte de uma campanha de desinformação e informação imprecisa muito maior destinada ao público americano.
A equipe de RP do Google está em modo de controle de danos há cerca de uma semana, e os executivos estão se esforçando para acalmar os medos de que seus produtos não sejam lixo consciente.
Some?!? Your racism didn't fly.... Elon's AI will be my choice instead. pic.twitter.com/jEb0WywDin
— AKA Frederikke Amalie Hansen - #FreeAssange 🐈 (@FAH36912) February 22, 2024
Google says it's politically neutral, but it's not. It got out the vote for Clinton, donated 90% to Democrats, and fired an engineer for criticizing DEI. And now we've discovered that its CEO promised to use AI to counter "fake news," racism, and populism in response to Trump. pic.twitter.com/yxs7gyT8q3
— Michael Shellenberger (@shellenberger) February 28, 2024
Artigos recomendados: Bing e Bard
Nenhum comentário:
Postar um comentário