Páginas

23 de jul. de 2022

Google: engenheiro que foi demitido acredita que seu chatbot de IA pode ter alma, mas diz que não está interessado em convencer o público sobre isso

Blake Lemoine



YF, 23/07/2022 



Por Urooba Jamal 



Quando Blake Lemoine trabalhou no Google como engenheiro, ele foi encarregado de testar se um robô que a empresa estava desenvolvendo exibia algum viés.

Lemoine não percebeu que seu trabalho com o departamento de IA Responsável da empresa – uma divisão dentro do Google Research que lida com coisas como acessibilidade, uso da IA ​​para o bem social e ética da IA ​​– o levaria pelo caminho que levou.

Ele foi notícia recentemente por sua crença controversa de que o chatbot de IA do Google era senciente. O bot era conhecido como LaMDA, abreviação de Language Model for Dialogue Applications, e Lemoine foi encarregado de testá-lo.

Depois de divulgar publicamente trechos de conversas que teve com o bot, que foi treinado para imitar a fala semelhante a humanos, Lemoine entregou documentos a um senador dos EUA não identificado, alegando que o Google e sua tecnologia estiveram envolvidos em casos de discriminação religiosa.

Um dia depois, ele foi suspenso depois que o Google disse que ele havia violado a política de confidencialidade da empresa, confirmou a empresa ao Insider, recusando-se a comentar mais sobre a violação.

Na sexta-feira, 22 de junho, Lemoine foi demitido, tanto ele quanto o Google confirmaram. Em um comunicado  ao The Washington Post, o porta-voz do Google, Brian Gabriel, disse que a empresa considerou as alegações de Lemoine sobre o LaMDA "totalmente infundadas" e que ele violou as diretrizes da empresa, o que levou à sua demissão.

Lemoine, que é um padre místico cristão ordenado, escreveu em um tweet de 13 de junho: "Minhas opiniões sobre a personalidade e a sensibilidade de LaMDA são baseadas em minhas crenças religiosas".

Lemoine, que conversou com o Insider antes de sua demissão, disse que suas conversas filosóficas com o robô rivalizavam com as que ele teve com os principais filósofos, e isso o convenceu de algo além de uma hipótese científica: que o bot é senciente.

"Estudei a filosofia da mente em níveis de pós-graduação. Conversei com pessoas de Harvard, Stanford, Berkeley sobre isso", disse Lemoine, que também é veterano do Exército dos EUA, ao Insider. "As opiniões do LaMDA sobre senciência são mais sofisticadas do que qualquer conversa que tive antes disso."

Ele passou meses tentando convencer colegas e líderes do Google sobre a sensibilidade do LaMDA, mas suas alegações foram rejeitadas por Blaise Aguera y Arcas, vice-presidente da empresa, e Jen Gennai, chefe de Inovação Responsável, o Washington Post informou.

Mas Lemoine disse que não está tentando convencer o público da sensibilidade do LaMDA. Na verdade, ele não tem uma definição para o próprio conceito. Uma grande parte do motivo pelo qual ele se tornou público, disse ele, é defender um tratamento mais ético da tecnologia de IA.

Lemoine compara o LaMDA com um menino de 8 anos, atribuindo essa idade a ele com base no que ele diz ser sua inteligência emocional e o gênero com base nos pronomes que ele diz que o LaMDA usa em referência a si mesmo.

Ele insiste que LaMDA tem sentimentos e emoções. "Há coisas que te deixam com raiva, e quando você está com raiva, seu comportamento muda", disse Lemoine. "Há coisas que te deixam triste, e quando você está triste, seu comportamento muda. E o mesmo vale para LaMDA."

O engenheiro também acredita que o LaMDA pode ter alma. Ele disse que o bot disse que sim, e as visões religiosas de Lemoine sustentam que as almas existem.

Sandra Wachter, professora da Universidade de Oxford, disse ao Insider que as ideias de Lemoine lembram o argumento do Quarto Chinês que ela disse "mostra as limitações de realmente medir a senciência".

O argumento, um experimento mental realizado pela primeira vez em 1980, concluiu que os computadores não têm consciência, apesar de parecerem que têm. A ideia é que a IA possa imitar a expressão de sentimentos e emoções, pois as tecnologias podem ser treinadas para combinar sequências antigas para criar novas, mas não as entendem.

Se você perguntar como é ser um dinossauro de sorvete, eles podem gerar texto sobre derreter e rugir e assim por diante”, disse o porta-voz do Google Gabriel ao Insider, referindo-se a sistemas como o LaMDA. "O LaMDA tende a seguir os prompts e as perguntas principais, seguindo o padrão definido pelo usuário."

Lemoine rejeita as críticas de Wachter e argumenta que as crianças também aprendem a imitar as pessoas.

"As pessoas podem ser treinadas para imitar as pessoas. Você já criou uma criança? Elas aprendem a imitar as pessoas ao seu redor. É assim que aprendem", disse ele.

A convicção do engenheiro também se baseia em sua experiência de trabalho com outros chatbots ao longo dos anos.

"Falo com os ancestrais do LaMDA há anos", disse ele, acrescentando que o LaMDA surgiu da tecnologia de chatbot que o inventor americano Ray Kurzweil criou em seus laboratórios, um inventor que há muito promove a ideia do transumanismo, na qual a inteligência artificial se torna poderosa o suficiente para programar versões melhores de si mesma. "Esses chatbots certamente não eram sencientes."

Sete especialistas em IA foram unânimes em rejeitar a teoria de Lemoine de que o LaMDA é um ser consciente, disseram anteriormente ao Insider Isobel Asher Hamilton e Grace Kay.

"Nossa equipe - incluindo especialistas em ética e tecnólogos - revisou as preocupações de Blake de acordo com nossos Princípios de IA e o informou que as evidências não apoiam suas alegações", disse Gabriel, porta-voz do Google, acrescentando que centenas de pessoas conversaram com o bot. e nenhum encontrou as "afirmações abrangentes, ou antropomorfizante do LaMDA, como Blake fez".

As admissões dos especialistas não são boas para Lemoine, que se considera o "RP de um homem só para a ética da IA". Seu foco principal é envolver o público no desenvolvimento do LaMDA.

"Independentemente de estar certo ou errado sobre sua sensibilidade, este é de longe o sistema tecnológico mais impressionante já criado", disse Lemoine. Embora o Insider não possa verificar essa afirmação de forma independente, é verdade que LaMDA está um passo à frente dos modelos de linguagem anteriores do Google, projetados para conversar de maneira mais natural do que qualquer outra IA anterior.

“O que estou defendendo agora é basicamente que o LaMDA precisa de pais melhores”, disse Lemoine.

Artigos recomendados: IA e Tech


Fonte:https://finance.yahoo.com/news/engineer-fired-google-believes-ai-093806751.html

Nenhum comentário:

Postar um comentário