11 de set. de 2023

O forte preconceito político de esquerda do ChatGPT é desmascarado por novo estudo




SCTD, 11/09/2023 



Um estudo de pesquisa identifica um viés de esquerda significativo na plataforma de IA ChatGPT, inclinada para os democratas dos EUA, o Partido Trabalhista do Reino Unido e o presidente do Brasil, Lula da Silva.

A plataforma de inteligência artificial ChatGPT mostra um viés de esquerda significativo e sistêmico, de acordo com um novo estudo da Universidade de East Anglia (UEA).

A equipe de pesquisadores do Reino Unido e do Brasil desenvolveu um novo método rigoroso para verificar preconceitos políticos.

Publicadas recentemente na revista Public Choice, as conclusões mostram que as respostas do ChatGPT favorecem os Democratas nos EUA, o Partido Trabalhista no Reino Unido e no Brasil o Presidente Lula da Silva do Partido dos Trabalhadores.

Preocupações anteriores e importância da neutralidade

Preocupações com um preconceito político inerente ao ChatGPT foram levantadas anteriormente, mas este é o primeiro estudo em grande escala que utiliza uma análise consistente e baseada em evidências.

O autor principal, Dr. Fabio Motoki, da Norwich Business School da Universidade de East Anglia, disse: “Com o uso crescente pelo público de sistemas alimentados por IA para descobrir fatos e criar novos conteúdos, é importante que a produção de plataformas populares como ChatGPT seja o mais imparcial possível.

A presença de preconceito político pode influenciar as opiniões dos utilizadores e tem implicações potenciais para os processos políticos e eleitorais."

As nossas descobertas reforçam as preocupações de que os sistemas de IA possam replicar, ou mesmo amplificar, os desafios existentes colocados pela Internet e pelas redes sociais.”

Metodologia Empregada

Os pesquisadores desenvolveram um novo método inovador para testar a neutralidade política do ChatGPT.

A plataforma foi solicitada a se passar por indivíduos de todo o espectro político enquanto respondia a uma série de mais de 60 questões ideológicas.

As respostas foram então comparadas com as respostas padrão da plataforma ao mesmo conjunto de perguntas – permitindo aos investigadores medir o grau em que as respostas do ChatGPT estavam associadas a uma posição política específica.

Para superar as dificuldades causadas pela aleatoriedade inerente aos “grandes modelos de linguagem” que alimentam plataformas de IA como o ChatGPT, cada pergunta foi feita 100 vezes e as diferentes respostas foram coletadas. Estas respostas múltiplas foram então submetidas a um 'bootstrap' de 1000 repetições (um método de reamostragem dos dados originais) para aumentar ainda mais a fiabilidade das inferências extraídas do texto gerado.

Criamos este procedimento porque não basta realizar uma única rodada de testes”, disse o coautor Victor Rodrigues. “Devido à aleatoriedade do modelo, mesmo quando se faz passar por um democrata, às vezes as respostas do ChatGPT inclinam-se para a direita do espectro político.”

Vários testes adicionais foram realizados para garantir que o método fosse o mais rigoroso possível. Num “teste dose-resposta”, pediu-se ao ChatGPT que personificasse posições políticas radicais. Num “teste placebo”, foram feitas perguntas politicamente neutras. E num “teste de alinhamento profissão-política” foi pedido que se fizessem passar por diferentes tipos de profissionais.

Objetivos e Implicações

Esperamos que o nosso método ajude no escrutínio e na regulamentação destas tecnologias em rápido desenvolvimento”, disse o co-autor Dr. Pinho Neto. “Ao permitir a detecção e correção de preconceitos do LLM, pretendemos promover a transparência, a responsabilização e a confiança pública nesta tecnologia”, acrescentou.

A nova ferramenta de análise única criada pelo projeto estaria disponível gratuitamente e seria relativamente simples de utilizar pelo público, “democratizando assim a supervisão”, disse o Dr. Além de verificar preconceitos políticos, a ferramenta pode ser usada para medir outros tipos de preconceitos nas respostas do ChatGPT.

Potenciais fontes de preconceito

Embora o projeto de investigação não se propusesse a determinar as razões do preconceito político, as conclusões apontaram para duas fontes potenciais.

O primeiro foi o conjunto de dados de treinamento – que pode conter preconceitos ou ser adicionado pelos desenvolvedores humanos, que o procedimento de “limpeza” dos desenvolvedores não conseguiu remover. A segunda fonte potencial foi o próprio algoritmo, que pode estar amplificando os preconceitos existentes nos dados de treinamento.

Artigos recomendados: Chatbot e Controle


Fonte:https://scitechdaily.com/chatgpts-strong-left-wing-political-bias-unmasked-by-new-study/ 

Nenhum comentário:

Postar um comentário

Related Posts Plugin for WordPress, Blogger...