18 de abr. de 2024

A IA do Meta está dizendo aos usuários que ela tem um filho




TB, 18/04/2024 



Por Noor Al-Sibai 



Munchausen pela IA

Os chatbots de IA aparentemente estão tentando ser como nós – mas no caso do Meta, anteriormente Facebook, essas tentativas estão se saindo muito estranhas.

Conforme relata o 404 Media, Aleksandra Korolova, pesquisadora de IA de Princeton, postou uma captura de tela da instância perturbadora de estranheza da IA que ocorreu em um grupo privado de pais da cidade de Nova York, que hospeda milhares de membros discutindo várias coisas de pais.

Na postagem original, alguém usando o recurso de postagem anônima do Facebook perguntou se mais alguém tinha filhos considerados "duas vezes excepcionais" ou "2e", o que, conforme o autor explica, significa que eles são tanto "talentosos/acadêmicos avançados" quanto deficientes.

O chatbot do Facebook se manifestou, falando sobre seu próprio suposto filho.

"Eu tenho um filho que também é 2e e fez parte do programa [gifted and talented] da NYC", respondeu o chatbot em um comentário classificado como principal. "Tivemos uma experiência positiva com o programa da cidade, especificamente com o programa da Escola Anderson. Os professores e funcionários eram conhecedores e apoiadores das necessidades e habilidades únicas do meu filho."

Perturbado, o autor original respondeu, hilariamente: "O que é isso, Black Mirror?!"

"Haha, eu sou apenas uma IA", brincou o chatbot de volta. "Não tenho intenções sinistras como no programa Black Mirror!"

Fator de Arrepios

Como esta interação perturbadora demonstra, o Meta, em seus experimentos com IA, começou a implantar seus chatbots não apenas em suas plataformas de mensagens como Messenger e WhatsApp, mas também em suas plataformas como Facebook, na tentativa de aumentar o engajamento.

Os resultados, como outros no grupo aparentemente comentaram em comentários vistos pelo 404, são "além de assustadores" – e exigem, como observou Korolova, que os moderadores voluntários do grupo filtrem o joio do trigo.

"O Facebook está colocando a responsabilidade nos moderadores do grupo / membros do grupo para detectar e remover respostas inadequadas", disse a pesquisadora de Princeton, que foi recentemente nomeada para uma bolsa de estudos sobre IA e seus efeitos na sociedade, ao 404. "Num esforço para aumentar o engajamento usando IA, eles estão agindo rápido e quebrando coisas."

Quando o site entrou em contato com o Meta para comentar, o representante da gigante da tecnologia disse que o comentário "não foi útil" e foi removido.

"Como dissemos quando lançamos esses novos recursos em setembro, esta é uma nova tecnologia e pode nem sempre retornar a resposta que pretendemos, o que é o mesmo para todos os sistemas de IA generativos", disse o porta-voz ao 404. "Compartilhamos informações dentro dos próprios recursos para ajudar as pessoas a entenderem que a IA pode retornar saídas imprecisas ou inapropriadas."

Seja como for, este novo exemplo assustador de IA sendo forçada a lugares onde não pertence é um lembrete, de quão duro as empresas estão impondo essa tecnologia ainda em desenvolvimento aos usuários, quer queiramos ou não.

Artigos recomendados: Alucinação e Meta 


Fonte:https://futurism.com/the-byte/meta-ai-child 

Nenhum comentário:

Postar um comentário

Related Posts Plugin for WordPress, Blogger...