CTPH, 23/01/2024
Por Tristan Greene
Os Estados Unidos parecem despreparados para o ataque de imitações geradas por IA, apesar de anos de alertas de grupos de reflexão.
Cidadãos de New Hampshire receberam um pedido político incomum durante o fim de semana de 20 a 21 de janeiro. Ligações automáticas apresentando o que parecia para muitos ser a voz do Presidente dos Estados Unidos, Joe Biden, diziam a eles para não votarem nas primárias de 23 de janeiro.
As mensagens automatizadas aparentemente foram geradas por uma ferramenta de deepfake de inteligência artificial (IA) com o propósito aparente de interferir nas eleições presidenciais de 2024.
NH voters are getting robocalls from Biden telling them not to vote tomorrow.
— Public Citizen (@Public_Citizen) January 22, 2024
Except it’s not Biden. It’s a deepfake of his voice.
This is what happens when AI’s power goes unchecked.
If we don’t regulate it, our democracy is doomed.pic.twitter.com/8wlrT63Mfr
De acordo com áudio gravado pela NBC, os moradores foram instruídos a ficar em casa durante as primárias:
“Votar nesta terça-feira apenas permite que os republicanos continuem sua busca por eleger Donald Trump novamente. Seu voto faz diferença em novembro, não nesta terça-feira.”
O escritório do procurador-geral do estado emitiu um comunicado condenando as ligações como desinformação, acrescentando que "os eleitores de New Hampshire devem ignorar completamente o conteúdo desta mensagem". Enquanto isso, um porta-voz do ex-presidente Donald Trump negou qualquer envolvimento do candidato republicano ou de sua campanha.
Os investigadores ainda não parecem ter identificado a fonte das ligações automáticas, mas as investigações estão em andamento.
Em notícias relacionadas, outro escândalo político relacionado a deepfake de áudio ocorreu no fim de semana, quando áudio gerado por IA imitando o líder democrata de Manhattan, Keith Wright, surgiu em 21 de janeiro. O deepfake de áudio apresentava uma imitação da voz de Wright falando mal da colega membro da Assembleia Democrata, Inez Dickens.
Segundo um relatório do (portal) Politico, alguns descartaram o áudio como falso, mas pelo menos um insider político foi momentaneamente convencido de que era real.
A democrata de Manhattan e ex-presidente do Conselho Municipal, Melissa Mark-Viverito, disse ao Politico que, inicialmente, pensou que os falsos eram críveis:
"Eu fiquei tipo 'ah, droga'. Eu pensei que fosse real."
Especialistas acreditam que atores mal-intencionados escolheram áudios falsos em vez de vídeos, porque os consumidores tendem a ser mais perspicazes quando se trata de falsificações visuais. Como o consultor de IA Henry Ajder recentemente disse ao Financial Times, "todo mundo está acostumado ao Photoshop ou pelo menos sabe que ele existe".
Até o momento da publicação deste artigo, não parece haver um método universal pelo qual deepfakes possam ser detectados ou impedidos. Especialistas recomendam precaução ao lidar com mídia de fontes desconhecidas ou duvidosas, especialmente quando reivindicações extraordinárias estão em jogo.
Artigos recomendados: Avatar e Gêmeo
Nenhum comentário:
Postar um comentário