Páginas

12 de dez. de 2022

A IA decidirá se você conseguirá seu próximo emprego? Sem regulamentação legal, você pode nem saber





PHYS, 12/12/2022 



O uso de inteligência artificial (IA) e outras ferramentas automatizadas de tomada de decisão no recrutamento está aumentando entre as organizações australianas. No entanto, a pesquisa mostra que essas ferramentas podem não ser confiáveis ​​e (podem ser) discriminatórias e, em alguns casos, dependem de uma ciência desacreditada.

Atualmente, a Austrália não possui leis específicas para regular como essas ferramentas funcionam ou como as organizações podem usá-las.

A coisa mais próxima que temos é uma nova orientação para empregadores no setor público, emitida pelo Comissário de Proteção ao Mérito após derrubar várias decisões automatizadas de promoção.

Um primeiro passo

O comissário analisa as decisões de promoção no setor público australiano para garantir que sejam legais, justas e razoáveis. No ano financeiro de 2021-22, a comissária Linda Waugh anulou 11 decisões de promoção feitas pela agência governamental Services Australia em uma única rodada de recrutamento.

Essas decisões foram tomadas usando um novo processo automatizado que exigia que os candidatos passassem por uma sequência de avaliações de IA, incluindo testes psicométricos, questionários e respostas em vídeo auto-gravadas. O comissário descobriu que esse processo, que não envolvia tomada de decisão ou revisão humana, fazia com que candidatos meritórios perdessem promoções.

O comissário já emitiu material de orientação para os departamentos do governo australiano sobre como escolher e usar ferramentas de recrutamento de IA.

Esta é a primeira orientação oficial dada aos empregadores na Austrália. Ele adverte que nem todas as ferramentas de recrutamento de IA no mercado aqui foram exaustivamente testadas, nem têm garantia de serem completamente imparciais.

Ferramentas de recrutamento de IA arriscadas e não regulamentadas

As ferramentas de IA são usadas para automatizar ou auxiliar os recrutadores na busca, triagem e integração de candidatos a vagas. Segundo uma estimativa, mais de 250 ferramentas comerciais de recrutamento de IA estão disponíveis na Austrália, incluindo triagem de currículos e avaliação de vídeo.

Uma pesquisa recente realizada por pesquisadores da Universidade Monash e do Conselho de Diversidade da Austrália descobriu que uma em cada três organizações australianas usou IA no recrutamento recentemente.

O uso de ferramentas de recrutamento de IA é uma atividade de "alto risco". Ao afetar as decisões relacionadas ao emprego, essas ferramentas podem impactar os direitos humanos dos candidatos a emprego e correr o risco de impedir que grupos desfavorecidos tenham oportunidades de emprego.

A Austrália não possui legislação específica que regule o uso dessas ferramentas. O Departamento de Indústria da Austrália publicou os Princípios de Ética da IA​​, mas eles não são juridicamente vinculativos. As leis existentes, como a Lei de Privacidade e a legislação anti-discriminação, precisam ser reformadas com urgência.

Não confiável e discriminatório?

As ferramentas de recrutamento de IA envolvem tecnologias novas e em desenvolvimento. Eles podem não ser confiáveis ​​e há exemplos bem divulgados de discriminação contra grupos historicamente desfavorecidos.

As ferramentas de recrutamento de IA podem discriminar esses grupos quando seus membros estão ausentes dos conjuntos de dados nos quais a IA é treinada ou quando estruturas, práticas ou atitudes discriminatórias são transmitidas a essas ferramentas em seu desenvolvimento ou implantação.

Atualmente, não existe um teste padrão que identifique quando uma ferramenta de recrutamento de IA é discriminatória. Além disso, como essas ferramentas geralmente são feitas fora da Austrália, elas não estão sintonizadas com a lei ou a demografia australiana. Por exemplo, é muito provável que os conjuntos de dados de treinamento não incluam os povos das Primeiras Nações da Austrália (povos indigenas).

Falta de salvaguardas

As ferramentas de recrutamento de IA usadas por e em nome dos empregadores na Austrália carecem de salvaguardas adequadas.

Avaliações de risco e impacto de direitos humanos não são necessárias antes da implantação. Monitoramento e avaliação, uma vez em uso, podem não ocorrer. Os candidatos a emprego carecem de oportunidades significativas para fornecer informações sobre seu uso.

Embora os fornecedores dessas ferramentas possam realizar testes e auditorias internas, os resultados geralmente não estão disponíveis publicamente. A auditoria externa independente é rara.

Desequilíbrio de poder

Os candidatos a emprego estão em desvantagem considerável quando os empregadores usam essas ferramentas. Eles podem ser invisíveis e inescrutáveis ​​e estão mudando as práticas de contratação de maneiras que não são bem compreendidas.

Os candidatos a emprego não têm o direito legal de saber quando a IA é usada para avaliá-los no processo de contratação. Eles também não precisam receber uma explicação de como uma ferramenta de recrutamento de IA os avaliará.

Minha pesquisa descobriu que isso é particularmente problemático para candidatos a emprego com deficiência. Por exemplo, candidatos a emprego com baixa visão ou destreza manual limitada podem não saber que serão avaliados pela velocidade de suas respostas até que seja tarde demais.

Os candidatos a emprego na Austrália também carecem da proteção disponível para seus colegas na União Europeia, que têm o direito de não serem submetidos a uma decisão de recrutamento totalmente automatizada.

Análise facial

O uso de ferramentas de avaliação de vídeo, como as usadas pela Services Australia, é particularmente preocupante. Muitas dessas ferramentas de IA dependem da análise facial, que usa recursos e movimentos faciais para inferir traços comportamentais, emocionais e de caráter.

Este tipo de análise foi desacreditado cientificamente. Um fornecedor proeminente, HireVue, foi forçado a interromper o uso de análise facial em sua ferramenta de IA como resultado de uma reclamação formal nos Estados Unidos.

Qual é o próximo?

O exemplo da Services Australia destaca a necessidade urgente de uma resposta regulatória. O governo australiano está atualmente sendo consultado sobre a regulamentação da IA ​​e a tomada de decisões automatizada.

Podemos esperar que os novos regulamentos abordem os muitos problemas com o uso de ferramentas de IA no recrutamento. Até que as proteções legais estejam em vigor, pode ser melhor adiar o uso dessas ferramentas para selecionar candidatos a emprego.

Artigos recomendados: IA e Dados


Fonte:https://phys.org/news/2022-12-ai-job-legal.html

Nenhum comentário:

Postar um comentário