7 de mar. de 2023

Golpistas usam IA de clonagem de voz para induzir avó a pensar que o neto estava na prisão: Deepfake vocal




TB, 06/03/2023 



Por Frank Landymore 



"Fomos destroçados. Estávamos convencidos de que estávamos conversando com Brandon". 

Resgate 

Golpistas impiedosos que estão sempre procurando o próximo grande golpe podem tê-lo encontrado: usar IA para imitar entes queridos das vítimas pelo telefone.

Quando Ruth Card, de 73 anos, ouviu o que pensou ser a voz de seu neto Brandon do outro lado da linha dizendo que precisava de dinheiro para a fiança, ela e o marido correram para o banco.

"Foi definitivamente um sentimento de... medo", disse Card ao The Washington Post. "Que temos que ajudá-lo agora."

O casal sacou no máximo 3.000 dólares canadenses em um banco e foi a outro para retirar mais. Felizmente, um gerente de banco vigilante percebeu e os avisou que outro cliente havia recebido um telefonema semelhante que parecia ser de um ente querido – mas descobriu-se que a voz era falsa.

"Fomos destroçados", disse Card. "Estávamos convencidos de que estávamos conversando com Brandon."

Problema Legal

Nem todos tiveram a mesma sorte. Benjamin Perkin, de 39 anos, disse ao WaPo como seus pais idosos foram roubados em milhares de dólares com a ajuda de um imitador de IA.

Os pais de Perkin receberam um telefonema de um advogado, que alegou que seu filho matou um diplomata americano em um acidente de carro e precisava de dinheiro para honorários advocatícios. O aparente advogado então deixou Perkin falar ao telefone – e a sua voz soou exatamente como ele.

Isso os convenceu. Mais tarde, quando o advogado ligou de volta pedindo CAD $ 21.000, seus pais foram ao banco e enviaram o dinheiro através da BitCoin.

"Todo dinheiro acabou", disse Perkin ao jornal. "Não há seguro. Não há como recuperá-lo. Ele se foi."

Presas fáceis

Os golpes de clonagem de voz têm sido uma ameaça há vários anos. Mas a crescente onipresença de IA poderosa e fácil de usar significa que o potencial de abuso da tecnologia supera facilmente a capacidade de um público involuntário de acompanhar os truques de maus atores – sem perceber que eles já podem estar mirando neles.

"Dois anos atrás, até um ano atrás, você precisava de muito áudio para clonar a voz de uma pessoa", disse Hany Farid, professor de perícia na UC Berkeley, ao WaPo. "Agora ... se você tem uma página no Facebook ... ou se gravou um TikTok e sua voz está lá por 30 segundos, as pessoas podem clonar sua voz."

Veja o ElevenLabs, cujo serviço de síntese de voz IA custa apenas US$ 5 por mês e pode produzir resultados tão convincentes que um jornalista o usou para invadir sua própria conta bancária. Até gerou todo um gênero de memes representando o presidente Joe Biden. A clonagem de voz da ElevenLabs só existe desde 2022. Imagine o dano que ela – e os concorrentes que procuram aproveitar seu sucesso –poderiam causar em apenas mais alguns anos.

Artigos recomendados: DPF e IA


Fonte:https://futurism.com/the-byte/scammers-voice-cloning-grandma-jail 

Nenhum comentário:

Postar um comentário

Related Posts Plugin for WordPress, Blogger...