IE, 30/03/2023
Por Baba Tamim
Os pensamentos suicidas expressos ao chatbot agora resultam em uma mensagem direcionando-os aos serviços de prevenção ao suicídio.
A viúva de um belga que se suicidou recentemente alega que um chatbot de IA (inteligência artificial) forçou seu marido a cometer suicídio.
O pai de dois filhos teria trocas de conversas diárias com "ELIZA", um chatbot construído por uma startup dos EUA utilizando a tecnologia GPT-J, um substituto de código aberto para o GPT-3 da OpenAI, de acordo com uma reportagem do jornal belga La Libre na terça-feira.
"Sem essas conversas com o chatbot ELIZA, meu marido ainda estaria aqui", disse ela ao La Libre.
A mulher na casa dos trinta tem dois filhos pequenos e viveu uma vida confortável com seu falecido marido. Ela forneceu um testemunho comovente e extremamente doloroso sobre a moralidade desses novos agentes conversacionais "inteligentes", observou o artigo do La Libre.
Segundo o relatório, o homem se suicidou seis semanas depois de falar com ELIZA.
A pessoa tinha uma eco-ansiedade extrema que se desenvolveu há dois anos e buscou conforto na ELIZA, um chatbot alimentado pelo modelo de linguagem de inteligência artificial de código aberto GPT-J da EleutherAI, de acordo com a família.
O GPT-J supera o GPT-3 do OpenAI em uma variedade de tarefas de downstreaming zero-shot e pode até superá-lo em tarefas de geração de código. A versão mais recente, GPT-J-6B, é um modelo de linguagem baseado no conjunto de dados The Pile, de acordo com as credenciais online da empresa.
Enquanto isso, o fundador do chatbot do Vale do Silício disse ao La Libre que sua equipe está "trabalhando para melhorar a segurança da IA".
Os pensamentos suicidas expressos ao chatbot agora resultam em uma mensagem direcionando-os aos serviços de prevenção ao suicídio.
Preocupações com a segurança aumentaram após a tragédia
A tragédia gerou demandas por maior conscientização e maior segurança dos cidadãos.
"Com a popularização do ChatGPT, o público em geral descobriu o potencial da inteligência artificial em nossas vidas como nunca antes", disse Mathieu Michel, secretário de Estado da Digitalização da Bélgica, responsável pela Simplificação Administrativa.
"Embora as possibilidades sejam infinitas, o perigo de usá-lo também é uma realidade que deve ser considerada."
A família do falecido conversou com Michel, também responsável por Privacidade e Regulamentação de Construções, na semana passada.
"Estou particularmente impressionado com a tragédia desta família. O que aconteceu é um precedente sério que precisa ser levado muito a sério", afirmou.
Ele enfatizou que esta situação mostra como é importante "definir claramente as responsabilidades" para evitar um desastre como esse no futuro próximo.
"É claro que ainda temos que aprender a conviver com algoritmos, mas sob nenhuma circunstância o uso de qualquer tecnologia deve levar os editores de conteúdo a fugir de suas próprias responsabilidades", observou Michel.
Este não seria o primeiro, porém; anteriormente, muitos usuários reclamaram das novas respostas "desequilibradas" do Bing AI da Microsoft, com tecnologia ChatGPT.
Artigos recomendados: IA e Controle
Nenhum comentário:
Postar um comentário