Páginas

2 de out. de 2024

Departamento de Polícia Testa Detetive com IA em Crimes Reais




TB, 29/09/2024 



Por Sharon Adarlo 



Crimes de Bot

Um departamento de polícia no Reino Unido está testando um sistema alimentado por IA que pode ajudar a solucionar casos antigos, condensando décadas de trabalho investigativo em meras horas, segundo a Sky News.

Mas ainda não há informações sobre a taxa de precisão desta plataforma desenvolvida na Austrália, chamada Soze, o que é uma preocupação importante, já que os modelos de IA tendem a produzir resultados extremamente incorretos ou "alucinar" informações inventadas.

O Departamento de Polícia de Avon e Somerset, que cobre partes do sudoeste da Inglaterra, está testando o programa ao fazer com que Soze escaneie e analise e-mails, contas de redes sociais, vídeos, extratos financeiros e outros documentos.

A Sky informa que a IA conseguiu analisar evidências de 27 casos "complexos" em cerca de 30 horas — o equivalente a 81 anos de trabalho humano, o que é impressionante. Não é de se admirar que esse departamento de polícia esteja interessado em usar o programa, pois esses números parecem um multiplicador de forças incrível — o que é especialmente atraente para uma força policial que pode estar com limitações de pessoal e orçamento.

"Pode ser que você tenha uma revisão de um caso arquivado que pareça impossível por conta da quantidade de material e o insira em um sistema como este, que pode simplesmente processá-lo e depois fornecer uma avaliação", disse Gavin Stephens, presidente do Conselho Nacional de Chefes de Polícia do Reino Unido, à Sky. "Vejo isso como algo realmente, realmente útil."

Relatório Minority

Outro projeto de IA mencionado por Stephens está criando um banco de dados de facas e espadas, armas que muitos suspeitos usaram para atacar, mutilar ou matar vítimas no Reino Unido.

Stephens parece otimista quanto à implementação dessas ferramentas de IA em breve, mas faria sentido validar se elas estão funcionando corretamente primeiro. A IA, especialmente na aplicação da lei, é notoriamente propensa a erros e pode levar a falsos positivos.

Um modelo usado para prever as chances de um suspeito cometer outro crime no futuro foi impreciso e também tendencioso contra pessoas negras — o que soa como algo saído diretamente da novela de Philip K. Dick, "Relatório Minoritário", adaptada para o filme de 2002 de Steven Spielberg. O reconhecimento facial por IA também pode levar a prisões injustas, com minorias sendo repetidamente acusadas de crimes que não cometeram.

Essas imprecisões são tão preocupantes que a Comissão de Direitos Civis dos EUA criticou recentemente o uso de IA na aplicação da lei.

Há uma percepção de que, por serem máquinas fazendo a análise, elas serão infalíveis e precisas. Mas elas são construídas com base em dados coletados por humanos, que podem ser tendenciosos e completamente errados, então problemas conhecidos já são inseridos desde o início.

Artigos recomendados: Vigilância e Robôs 


Fonte:https://futurism.com/the-byte/police-department-ai-powered-detective-unsolved-crimes 

Nenhum comentário:

Postar um comentário