16 de fev. de 2024

O AI Act da UE está deixando uma brecha para o reconhecimento de emoções?




BU, 16/02/2024 



Por Masha Borak 



Enquanto a União Europeia se prepara para adotar o Artificial Intelligence Act, a legislação histórica ainda está atraindo críticas, desta vez por permitir o uso do reconhecimento de emoções. Um artigo de opinião publicado no EU Observer destaca que o AI Act ainda deixa a porta aberta para seu uso em aplicação da lei e por agentes de migração, o que poderia levar a potenciais abusos de direitos.

O autor anônimo, que se descreve como um funcionário civil da UE, afirma que isso abre espaço para seu uso em aplicação da lei e controle de migração, especialmente no controverso projeto iBorderCtrl financiado pela UE, um detector de mentiras de IA para tecnologias de reconhecimento facial e de emoção projetadas para serem usadas durante o interrogatório de migrantes. Em 2018, o bloco anunciou que financiaria o projeto e conduziria testes-piloto na Hungria, Grécia e Letônia.

O iBorderCtrl tem sido alvo de intensa escrutínio por parte de grupos de direitos humanos e legisladores. Apesar dos esforços para lançar luz sobre seu uso, o Tribunal de Justiça da União Europeia (TJUE) decidiu em setembro de 2023 negar o acesso à documentação relacionada ao projeto, citando a proteção dos interesses comerciais.

O reconhecimento facial de emoções é o processo de identificação do sentimento humano usando biometria facial, um campo relativamente novo de IA que tem sido recebido com resultados mistos. O AI Act em si destaca as deficiências da tecnologia e seu potencial para "resultados discriminatórios" e intrusão nos direitos e liberdades.

"Há sérias preocupações sobre a base científica de sistemas de IA que visam identificar ou inferir emoções, especialmente porque a expressão de emoções varia consideravelmente entre culturas e situações, e até mesmo dentro de um único indivíduo", afirma o documento.

Apesar dessas preocupações, o reconhecimento de emoções não foi incluído no Artigo 5 do AI Act, que define Práticas de Inteligência Artificial Proibidas. Em vez disso, o reconhecimento de emoções é definido como um sistema de IA de alto risco e seu uso é proibido no local de trabalho e em instituições educacionais, com exceções para razões de segurança e médicas. Os implementadores de sistemas de reconhecimento de emoções não são obrigados a informar as pessoas sobre o funcionamento desses sistemas, se o sistema for usado para "detectar, prevenir e investigar crimes", de acordo com a legislação.

A linguagem do AI Act adiciona à confusão sobre a legalidade do reconhecimento de emoções: A lei afirma que o fato de um sistema de IA ser classificado como um sistema de IA de alto risco, "não deve ser interpretado como indicativo de que o uso do sistema é legal sob outros atos do direito da União ou sob o direito nacional compatível com o direito da União."

No início de fevereiro, os legisladores europeus chegaram a um acordo sobre os detalhes técnicos do AI Act, abrindo o caminho para a aprovação dos comitês do Parlamento Europeu em abril. Embora não se espere uma oposição significativa, os legisladores ainda podem introduzir mudanças que possam retardar o cronograma de implementação.

Artigos recomendados: Emoção e Detecção


Fonte:https://www.biometricupdate.com/202402/is-the-eu-ai-act-leaving-a-backdoor-for-emotion-recognition 

Nenhum comentário:

Postar um comentário

Related Posts Plugin for WordPress, Blogger...