Páginas

20 de abr. de 2023

A equipe do Google alertou que sua IA era uma "mentirosa patológica" antes de lançá-la





TB, 19/04/2023 



Por Victor Tangermann 



Mentiroso patológico

O Google pediu a cerca de 80.000 de seus funcionários para testar seu ainda inédito chatbot Bard AI antes de lançá-lo ao público no mês passado, informa a Bloomberg.

E as críticas, ao que parece, foram absolutamente contundentes. A IA era uma “mentirosa patológica”, concluiu um funcionário, de acordo com capturas de tela obtidas pela Bloomberg. Outro testador chamou isso de "digno de vergonha". Um funcionário diferente recebeu conselhos potencialmente fatais sobre como pousar um avião ou mergulhar.

Em uma nota de fevereiro, que foi vista por quase 7.000 trabalhadores, outro funcionário chamou Bard de 'mais do que inútil: por favor, não lance'.

Resumindo, foi um desastre completo - mas, como todos sabemos, a empresa decidiu lançá-lo de qualquer maneira, rotulando-o como um "experimento" e adicionando isenções de responsabilidade proeminentes.

Alcançar

A decisão do Google provavelmente foi um movimento desesperado para alcançar a concorrência, com o OpenAI avançando com seu altamente popular ChatGPT, apesar da tecnologia estar em um estado aparentemente subdesenvolvido.

De acordo com a Bloomberg, os funcionários do Google encarregados de descobrir as implicações éticas e de segurança dos novos produtos da empresa foram instruídos a ficar de lado enquanto as ferramentas de IA estavam sendo desenvolvidas.

A ética da IA ​​ficou em segundo plano”, disse a ex-gerente do Google e presidente da Signal Foundation, Meredith Whittaker à Bloomberg . "Se a ética não estiver posicionada para ter precedência sobre o lucro e o crescimento, ela não funcionará."

A gigante da tecnologia, no entanto, afirma que a ética da IA ​​continua sendo uma prioridade.

No entanto, dois funcionários do Google disseram à Bloomberg que as revisões de ética da IA ​​são quase totalmente voluntárias no Google, fora de áreas mais delicadas, como biometria ou recursos de identidade.

A executiva do Google, Jen Gennai, disse durante uma reunião recente que os próximos produtos de IA podem pontuar "80, 85 por cento ou algo assim" em "justiça", um indicador de viés, em vez de ter que apontar para "99 por cento", de acordo com o relatório.

Frustração

Pior ainda, parece que os escalões superiores do Google estão isolando ativamente as equipes que estão trabalhando em novos recursos de IA, protegendo o resto da empresa do que eles realmente estão trabalhando.

"Há uma grande quantidade de frustração, uma grande quantidade dessa sensação de tipo, o que estamos fazendo?" Margaret Mitchell, que costumava liderar a equipe de ética de IA do Google antes de ser demitida por causa de uma disputa justa em 2021, disse à Bloomberg .

"Mesmo que não haja diretrizes firmes no Google para parar de fazer um trabalho ético", acrescentou ela, "a atmosfera é aquela em que as pessoas que estão fazendo esse tipo de trabalho se sentem realmente sem apoio e provavelmente farão um trabalho menos melhor por causa disso. "

Artigos recomendados: IA e Google


Fonte:https://futurism.com/the-byte/google-staff-warned-ai-pathological-liar 

Nenhum comentário:

Postar um comentário