24 de set. de 2022

Mulher fica horrorizada ao descobrir que suas fotos de exames médicos estavam sendo usadas para treinar a IA




TB, 23/09/2022 - Com Futurism 



Por Frank Landymore 



Uma nojenta invasão de privacidade. 

Doutor Botto

Uma artista de IA chamada Lapine diz que descobriu que suas fotos médicas privadas de quase dez anos atrás estavam sendo usadas em um conjunto de softwares de imagens que treina a IA, chamado LAION-5B.

Lapine fez essa descoberta aterradora usando o Have I Been Trained, um site que permite aos artistas verificar se seu trabalho foi usado no (software de) conjunto de imagens. Quando Lapine realizou uma pesquisa de imagem reversa de seu rosto, duas de suas fotos de exames médicos particulares surgiram inesperadamente.

"Em 2013, um médico fotografou meu rosto como parte da documentação clínica", explicou Lapine no Twitter . “Ele morreu em 2018 e de alguma forma essa imagem acabou em algum lugar online e acabou no conjunto de dados – a imagem para a qual eu assinei um formulário de consentimento para o meu médico – e  não para um conjunto de dados”.

Cadeia de Custódia

O LAION-5B deve usar apenas imagens publicamente disponíveis na web. E por todas as questões éticas e razoáveis, seria de se pensar que isso significaria a exclusão de fotos particulares de pacientes médicos. Aparentemente, não

De alguma forma, essas fotos foram tiradas dos arquivos de seu médico e acabaram online e, eventualmente, no conjunto de imagens de LAION. A Ars Technica, acompanhando a descoberta de Lapine, encontrou muito mais imagens “potencialmente sensíveis” de pacientes em hospitais.

A LAION reuniu essas imagens usando web scraping, um processo em que os bots vasculham a internet em busca de conteúdo – e quem sabe o que eles podem descobrir.

Um engenheiro da LAION disse no Discord (fórum) da organização que se o banco de dados não hospeda as imagens, então a melhor maneira de remover uma é "pedir que o site de hospedagem pare de hospedá-la", conforme citado por Ars .

Mas, como aponta Lapine, esse processo geralmente exige que você divulgue informações pessoais ao site em questão.

No final, a responsabilidade pode ser difícil de definir. O hospital ou o médico erraram ao não proteger adequadamente as fotos ou os mineradores da web como o LAION são muito invasivos? Isso pode ser uma falsa dicotomia, pois as respostas não são mutuamente excludentes.

Independentemente disso, é ruim o suficiente que as IAs estejam assimilando as obras dos artistas sem o consentimento deles. Mas permitir que fotos médicas privadas sejam analisadas pela IA? Isso deveria soar o alarme de todos. Se mesmo essas não são intocáveis, quais são?

Artigos recomendados: IA e Dados


Fonte:https://futurism.com/the-byte/private-medical-photos-ai

Nenhum comentário:

Postar um comentário

Related Posts Plugin for WordPress, Blogger...