RTN, 21/02/2024
Por Cindy Harper
Alegações de preconceito racial contra caucasianos surgiram contra o Google Gemini, um chatbot de IA conhecido por suas habilidades de geração de imagens e mais. De acordo com usuários indignados expressando suas preocupações no X, a ferramenta de IA aparentemente é resistente à geração de imagens de indivíduos brancos, um viés observado ao testá-la com prompts diversos, como Papas, Vikings, soldados da Revolução Americana e outros.
No entanto, esse imenso poder vem com uma responsabilidade substancial e uma série de desafios éticos, sociais e políticos.
Uma das principais preocupações gira em torno dos indivíduos e organizações que programam e controlam esses sistemas de IA. Como os algoritmos de IA são projetados e treinados por humanos, eles carregam inerentemente os preconceitos, valores e objetivos de seus criadores. Como tal, aqueles que desenvolvem e implantam tecnologias de IA podem obter influência e poder sem precedentes sobre a sociedade. Essa dinâmica de poder é especialmente relevante ao considerar empresas de Tecnologia da Informação, que já são influentes devido ao seu tamanho, alcance e controle sobre vastas quantidades de dados.
As observações feitas até agora indicam uma falta peculiar de figuras brancas nas imagens criadas pela aplicação Gemini, apesar de suas capacidades abrangentes.
O bot de IA Gemini parece excluir em grande parte pessoas brancas das imagens geradas.
Uma série de testes confirmou ainda mais esses preconceitos, experimentando maneiras indiretas de incentivar a IA a representar indivíduos brancos.
Independentemente disso, prompts indiretos para imagens apresentando um cavaleiro medieval, um fã de música country, um soldado da Guerra Revolucionária e Vikings, ainda produziram imagens virtualmente exclusivas de pessoas brancas.
Esses testes levaram muitos a questionar se a consideração de "diversidade" no algoritmo do Google pode ser responsável pela exclusão aparente de indivíduos brancos na geração de imagens.
Artigos recomendados: IA e Viés
Nenhum comentário:
Postar um comentário