F24, 25/03/2023
A Assembleia Nacional da França deve adotar uma lei na próxima terça-feira antes dos Jogos Olímpicos de 2024 em Paris. O Artigo 7 é o aspecto mais controverso desta lei, pois permitirá que a vigilância por vídeo com IA seja usada para detectar comportamentos anormais. Organizações de direitos humanos e a esquerda francesa condenaram a medida.
A lei abrangente que a Assembleia Nacional da França deve aprovar em 28 de março, antes dos Jogos Olímpicos de Paris 2024, permitirá abrir lojas aos domingos, estabelecer um centro de saúde no departamento de Seine-Saint-Denis (localizado a nordeste de Paris) e permitir que o estado francês investigue futuras pessoas credenciadas. No entanto, o artigo 7 dessa lei é particularmente controverso, pois afirma que a vigilância por vídeo com IA pode ser usada, em caráter experimental, para garantir a segurança dos Jogos Olímpicos. Grupos de direitos humanos dizem que o uso dessa tecnologia abrirá um precedente perigoso.
Durante a fase preliminar, o Artigo 7 foi adotado pela maioria presidencial, o partido de direita francês Les Républicains e o Rally Nacional de extrema direita . O Novo Sindicato Popular Ecológico e Social (NUPES), uma coalizão de partidos de esquerda, se opôs. Ele permitirá que a tecnologia de vigilância por vídeo baseada em algoritmo seja usada para garantir a segurança de "eventos esportivos, recreativos ou culturais" em larga escala em caráter experimental.
'Um ataque total aos direitos à privacidade'
“A videovigilância algorítmica é uma nova forma de tecnologia que utiliza um software de computador para analisar as imagens captadas pelas câmeras de vigilância em tempo real”, explica Arnaud Touati, advogado especializado em direito digital. “Os algoritmos usados no software são baseados principalmente na tecnologia de aprendizado de máquina, que permite que a vigilância por vídeo com IA, ao longo do tempo, continue a melhorar e se adaptar a novas situações”.
Os defensores dessa tecnologia afirmam ser capazes de antecipar os movimentos da multidão e detectar bagagens abandonadas ou incidentes potencialmente perigosos. Em comparação com a videovigilância tradicional, tudo é automatizado com algoritmos responsáveis pela análise – o que, segundo os defensores desta tecnologia, limita os erros humanos.
“Enquanto a França se promove como campeã dos direitos humanos globalmente, sua decisão de legalizar a vigilância em massa com inteligência artificial durante as Olimpíadas levará a um ataque total aos direitos à privacidade, protesto e liberdade de reunião e expressão”, Anistia International disse em um comunicado após a aprovação do artigo.
Um arauto da futura vigilância por vídeo em toda a Europa?
Katia Roux, especialista em tecnologia e direitos humanos de uma ONG, explica que essa tecnologia pode gerar muitos temores. “No direito internacional, a legislação deve respeitar os estritos princípios da necessidade e da proporcionalidade. Neste caso, porém, o legislador não demonstrou isso”, afirma. “Estamos falando de tecnologia de avaliação, que tem que avaliar comportamentos e categorizá-los como de risco para que medidas possam ser tomadas posteriormente”.
"Esta tecnologia não é legal hoje. Na França, experimentos foram feitos, mas não dentro do marco legal que esta lei se propõe a criar", disse ela. "Também não é legal no nível europeu. É até mesmo levantado durante as discussões no Parlamento Europeu sobre tecnologia e regulamentação de sistemas de inteligência artificial. A legislação pode, portanto, também violar a regulamentação europeia que está sendo elaborada."
"Ao adotar esta lei, a França se tornaria a campeã da vigilância por vídeo na UE e estabeleceria um precedente extremamente perigoso. Seria um sinal extremamente preocupante para os países que poderiam ser tentados a usar esta tecnologia contra sua própria população", continuou ela.
Discriminatório?
Um temor é que o algoritmo aparentemente frio e infalível possa, de fato, conter vieses discriminatórios. “Esses algoritmos vão ser treinados a partir de um conjunto de dados decididos e desenhados por seres humanos. Assim, poderão incorporar os vieses discriminatórios das pessoas que os conceberam e projetaram”, diz Roux.
“A vigilância por vídeo com IA já foi utilizada para fins racistas, notadamente pela China, na vigilância exclusiva dos uigures, minoria muçulmana presente no país”, diz Touati. "Como as minorias étnicas estão sub-representadas nos dados fornecidos aos algoritmos para fins de aprendizado, há vieses discriminatórios e racistas significativos. De acordo com um estudo do MIT, embora o erro de reconhecimento facial seja de 1% para homens brancos, é de 34% para as mulheres negras".
Touati, porém, quer ver o copo meio cheio. “O uso de vigilância por vídeo com IA durante eventos dessa magnitude também pode destacar os preconceitos discriminatórios, misóginos e racistas do algoritmo, identificando, em uma frequência muito alta para ser preciso, pessoas de grupos étnicos minoritários como possíveis suspeitos”, explica ele.
Quando perguntado por membros da coalizão de oposição de esquerda NUPES que tipo de pessoas a vigilância por vídeo com IA teria como alvo, o ministro do Interior francês, Gérald Darmanin, disse: "Não [os que usam] moletons". O governo francês acredita que os limites estabelecidos pela lei – ausência de reconhecimento facial, proteção de dados – serão suficientes para evitar práticas discriminatórias.
“Criámos salvaguardas para que os concursos sejam reservados apenas a empresas que respeitem um determinado número de regras, incluindo o alojamento de dados em território nacional, respeitando a CNIL [Comissão Nacional de Informática e Liberdade; um órgão regulador administrativo francês independente responsável por garantir que a lei de privacidade de dados é aplicada à coleta, armazenamento e uso de dados pessoais] e o GDPR [Regulamento Geral de Proteção de Dados; uma lei de proteção de dados introduzida pela UE]", diz o deputado Philippe Latombe, membro do partido pró-europeu de centro-direita Movimento Democrático. Ele co-assinou uma emenda com o Rally Nacional para que o edital desse prioridade às empresas europeias.
"Claramente, nós não estamos tranquilos com as garantias do governo. Na realidade, nenhuma emenda real é possível, e essa tecnologia é, em si, problemática e perigosa para os direitos humanos”, diz Roux. “Assim permanecerá até que seja feita uma avaliação séria, demonstrada a necessidade e proporcionalidade de seu uso e um debate real com os diferentes atores da sociedade civil sobre o assunto”.
Eventos esportivos e experimentos tecnológicos
Embora os Jogos Olímpicos sejam claramente o evento-alvo, esse experimento tecnológico pode começar assim que a lei for implementada e terminará em 31 de dezembro de 2024, quatro meses após o término dos Jogos Paraolímpicos. Poderia, portanto, ser aplicado a uma ampla gama de eventos, começando com a Copa do Mundo de Rugby de 8 de setembro a 28 de outubro.
Os oponentes da vigilância por vídeo de IA temem que seu uso inicialmente excepcional acabe se tornando comum. Afinal, os eventos esportivos costumam ser usados como campo de testes para policiamento, segurança e novas tecnologias. As Olimpíadas de Londres em 2012, por exemplo, levaram ao uso generalizado de videomonitoramento na capital britânica.
“Temos medo de que esse período excepcional se torne a norma”, explica Roux, acrescentando que a tecnologia de reconhecimento de voz, que foi implantada em caráter experimental durante a Copa do Mundo de 2018 na Rússia, tem sido usada desde então para reprimir a oposição.
Finalmente, a Anistia Internacional teme que a vigilância por vídeo acabe levando à vigilância biométrica ou por voz. "O reconhecimento facial é apenas um recurso esperando para ser ativado", diz Roux.
A lei sobre os Jogos Olímpicos de 2024 ainda não completou sua jornada legislativa. Após a votação formal de terça-feira na Assembleia Nacional, o texto passará por várias alterações e fará vários percursos entre a Assembleia e o Senado, que o havia alterado anteriormente, até que as duas câmaras concordem em adotá-lo.
Artigos recomendados: Biometria e IA
Nenhum comentário:
Postar um comentário