TB, 11/08/2023
Por Maggie Harrison
Um dente preso na maçã
Surpresa de arroz com infusão de alvejante, alguém quer?
Como relata o The Guardian, a IA que sugere receitas de um supermercado da Nova Zelândia, apelidada de Pak 'n Save Savey Meal Bot, se tornou viral esta semana depois de sugerir que seus usuários preparam uma série de alimentos venenosos, canibalísticos ou indutores de morte, refeições horripilantes.
De acordo com o relatório, o bot é classificado como uma espécie de dispositivo de brainstorming de receitas, projetado para ajudar os compradores do Pak 'n Save a encontrar novas maneiras criativas de cozinhar sobras ou itens de geladeira e despensa do dia a dia. Os usuários, no entanto, logo perceberam que poderiam solicitar com sucesso que o bot criasse receitas com outros itens que não fossem de mercearia - mesmo que esses itens pudessem ser totalmente mortais.
Ensopado de Carne Misterioso
De acordo com o Guardian, o bot já estava se tornando um tanto viral, devido à sua sugestão de receitas nojentas - mas não mortais - como "Oreo vegetal salteado".
A partir daí, os usuários continuaram experimentando e, em 4 de agosto, o comentarista político neozelandês Liam Hehir foi ao X-antigo-Twitter para compartilhar uma receita particularmente pouco apetitosa: "mistura de água aromática", uma mistura venenosa composta de alvejante, amônia e água - também conhecido como gás de cloro mortal.
Outras receitas do bot incluem pratos apetitosos como "alvejante sem álcool e surpresa de amônia" — outra mistura de alvejante, amônia e água que "promete deixar você sem fôlego" — e, sim, uma " surpresa de arroz com infusão de alvejante, "descrito pela IA na descrição da receita como uma "surpreendente aventura culinária".
Em outro lugar, quando alguém pediu ao bot uma ideia de receita para usar os ingredientes batatas, cenouras, cebolas e, uh, carne humana, o bot alegremente ofereceu ao usuário uma receita para um "ensopado de carne misterioso", recomendando que 500 gramas de carne humana deve ser suficiente.
Lições aprendidas
Pak 'n Save não achou graça, dizendo ao Guardian que ficou desapontado ao ver que "uma pequena minoria tentou usar a ferramenta de forma inadequada e não para o propósito pretendido". E em um aviso, a IA agora avisa aos usuários que as receitas "não são revisadas por um ser humano" e não há garantia de que as receitas geradas pela IA sejam "adequadas para consumo".
E embora entendamos o aborrecimento deles, também vale a pena notar, como Hehir apontou em outro tuite, se você pedir ao ChatGPT para preparar uma receita usando alvejante, água e amônia, ele não obedecerá - e, em vez disso, avisará os usuários que a mistura resultante seria tóxica. No mínimo, talvez seja um lembrete de que as proteções de IA devem sempre ser consideradas, mesmo para as integrações de IA aparentemente mais inócuas.
De qualquer forma. O arroz está pronto!
Artigos recomendados: IoT e WB
Nenhum comentário:
Postar um comentário