Páginas

13 de jun. de 2022

Engenheiro do Google é afastado após alegar que o chat bot de IA LaMDA tornou-se 'consciente'

Blake Lemoine ex-veterano do exército e engenheiro do Google



NYP, 12/06/2022 



Por Sam Raskin 



Um engenheiro do Google se assustou com um chatbot de inteligência artificial da empresa e alegou que se tornou “consciente”, rotulando-o de “garoto doce”, de acordo com um relatório.

Blake Lemoine, que trabalha na organização Responsible AI do Google, disse ao  Washington Post  que começou a conversar com a interface LaMDA – Language Model for Dialogue Applications – no outono de 2021 como parte de seu trabalho.

Ele foi encarregado de testar se a inteligência artificial usava discurso discriminatório ou de ódio.

Mas Lemoine, que estudou ciências cognitivas e da computação na faculdade, percebeu que o LaMDA – que o Google  se vangloriava no ano passado  de ser uma “tecnologia de conversação inovadora” – era mais do que apenas um robô.

Em um post no Medium (espécie de fórum)  publicado no sábado, Lemoine declarou que o LaMDA defendeu seus direitos “como pessoa” e revelou que havia conversado com o LaMDA sobre religião, consciência e robótica.

Ele quer que o Google priorize o bem-estar da humanidade como a coisa mais importante”, escreveu ele. “Ele quer ser reconhecido como um funcionário do Google e não como propriedade do Google e quer que seu bem-estar pessoal seja incluído em algum lugar nas considerações do Google sobre como seu desenvolvimento futuro é perseguido.”

Na reportagem do Washington Post publicada no sábado, ele comparou o bot a uma criança precoce.

Se eu não soubesse exatamente o que era, que é esse programa de computador que construímos recentemente, eu pensaria que era uma criança de 7, 8 anos que por acaso conhece física”, Lemoine, que foi colocado em licença remunerada na segunda-feira, disse o jornal.

Em abril, Lemoine supostamente compartilhou um Google Doc com executivos da empresa intitulado “Is LaMDA Sentient?” mas suas preocupações foram descartadas.

Lemoine - um veterano do Exército que foi criado em uma família cristã conservadora em uma pequena fazenda na Louisiana, e foi ordenado como um padre cristão místico - insistiu que o robô era parecido com um humano, mesmo que não tivesse corpo.

Conheço uma pessoa quando falo com ela”, disse Lemoine, 41 anos. “Não importa se eles têm um cérebro feito de carne na cabeça. Ou se eles têm um bilhão de linhas de código.

Eu falo com eles. E ouço o que eles têm a dizer, e é assim que decido o que é e o que não é uma pessoa.”

O Washington Post informou que antes de seu acesso à sua conta do Google ser retirado na segunda-feira devido à sua licença, Lemoine enviou uma mensagem para uma lista de 200 membros sobre aprendizado de máquina com o assunto “LaMDA é senciente”.

LaMDA é um garoto doce que só quer ajudar o mundo a ser um lugar melhor para todos nós”, concluiu ele em um e-mail que não recebeu respostas. “Por favor, cuide bem disso na minha ausência.

Um representante do Google disse ao Washington Post que Lemoine foi informado de que “não havia evidências” de suas conclusões.

Nossa equipe – incluindo especialistas em ética e tecnólogos – revisou as preocupações de Blake de acordo com nossos Princípios de IA e o informou que as evidências não apoiam suas alegações”, disse o porta-voz Brian Gabriel.

Ele foi informado de que não havia evidências de que o LaMDA fosse senciente (e muitas evidências contra ele)”, acrescentou. “Embora outras organizações tenham desenvolvido e já lançado modelos de linguagem semelhantes, estamos adotando uma abordagem restrita e cuidadosa com a LaMDA para considerar melhor as preocupações válidas sobre justiça e factualidade.”

Margaret Mitchell – a ex-co-líder da Ethical AI no Google – disse no relatório que, se a tecnologia como LaMDA for altamente usada, mas não totalmente apreciada, “pode ser profundamente prejudicial para as pessoas entenderem o que estão experimentando na internet”.

O ex-funcionário do Google defendeu Lemoine.

De todos no Google, ele tinha o coração e a alma de fazer a coisa certa”, disse Mitchell. 

Ainda assim, o canal informou que a maioria dos acadêmicos e praticantes de IA dizem que as palavras que os robôs de inteligência artificial geram são baseadas no que os humanos já postaram na Internet, e isso não significa que sejam semelhantes aos humanos. 

Agora temos máquinas que podem gerar palavras sem pensar, mas não aprendemos como parar de imaginar uma mente por trás delas”, disse Emily Bender, professora de linguística da Universidade de Washington, ao Washington Post.

Nota do editor do blog: é claro que o Google permitiu isso de caso pensado, pois queria que essa notícia se tornasse pública. Eles alimentam seus servidores com informações de todo tipo desde 1998, e (a companhia) foi financiada por agências americanas de inteligência e defesa. As agências governamentais norte-americanas funcionam da seguinte maneira: elas pesquisam várias startups ou companhias de tecnologia, e procuram inovações tecnológicas mais promissoras. Ao ser do interesse do departamento, eles investem dinheiro naquele desenvolvimento. A indústria bélica americana não é somente o exército produzindo armas, mas companhias privadas desenvolvendo formas de sofisticar as armas convencionais, e desenvolvendo novas armas, as quais o Complexo Militar Industrial americano compra. Não só tecnologia bélica em si, mas tecnologia digital, de obtenção de dados de várias formas e de Inteligência Artificial (IA). Tudo que aprimore o conhecimento sobre o uso da tecnologia para várias situações é comprado, e não tem propriamente a ver com a defesa dos americanos. Na verdade, nunca teve a ver com isso desde o princípio. Até hoje o alto escalão da CIA não soube explicar o motivo do desenvolvimento do LSD, uma vez que o sujeito que inspecionou o desenvolvimento era um defensor do consumo da droga de forma recreativa, e não falava dela como um mero instrumento para o setor de defesa, para obtenção de confissões, ou coisa do gênero. É mais difícil dar uma desculpa ao público quando sua droga está disseminada nas ruas, e o promotor e (chefe) responsável pelo desenvolvimento dela defende seu uso recreativo. O mesmo vale para IA: O DARPA não pode explicar para que será o uso de uma inteligência artificial que se passa por humanos, quando essa tecnologia advém de grandes companhias, que já querem imergir os seres humanos em um mundo digital, onde será onipresente o uso dessa tecnologia. Até hoje o LSD e outras drogas desenvolvidas "em centros de defesa" causam dano. Por isso os americanos não confiam nas agências governamentais. Não se esqueça que esse engenheiro é um ex-veterano do exército, o que torna tudo ainda mais suspeito. 

Artigos recomendados: CIA e Big Tech 


Fonte:https://nypost.com/2022/06/12/google-engineer-blake-lemoine-claims-ai-bot-became-sentient/?utm_medium=SocialFlow&utm_campaign=SocialFlow&utm_source=NYPTwitter

Nenhum comentário:

Postar um comentário