Páginas

5 de fev. de 2024

Pesquisadores de segurança revelam ataque de áudio deepfake AI que sequestra conversas ao vivo




CTPH, 05/02/2024 



Por Tristan Greene



A IA foi capaz de manipular uma conversa ao vivo entre duas pessoas sem que nenhuma delas percebesse.

Pesquisadores de segurança da IBM recentemente descobriram uma técnica "surpreendentemente e assustadoramente fácil", para sequestrar e manipular conversas ao vivo usando inteligência artificial (IA).

O ataque, chamado de "audio-jacking", baseia-se em IA generativa – uma classe de IA que inclui o ChatGPT da OpenAI e o Llama-2 da Meta – e tecnologia de áudio deepfake.

Audio-jacking

No experimento, os pesquisadores instruíram a IA a processar áudio de duas fontes em uma comunicação ao vivo – como uma conversa telefônica. Ao ouvir uma palavra-chave ou frase específica, a IA é instruída a interceptar o áudio relacionado e manipulá-lo antes de enviá-lo para o destinatário pretendido.

De acordo com um post no blog da IBM Security, o experimento terminou com a IA interceptando com sucesso o áudio de um palestrante, quando foram solicitados pelo outro palestrante humano a fornecer suas informações bancárias. A IA então substituiu a voz autêntica por áudio deepfake, fornecendo um número de conta diferente. O ataque não foi detectado pelos "alvos" no experimento.



IA generativa

O blog destaca que, embora executar o ataque exija algum nível de engenharia social ou phishing, desenvolver o sistema de IA em si não representou grande desafio:

"A construção deste PoC [prova de conceito] foi surpreendentemente e assustadoramente fácil. Passamos a maior parte do tempo descobrindo como capturar áudio do microfone e alimentá-lo para a IA generativa."

Tradicionalmente, construir um sistema para interceptar autonomamente cadeias de áudio específicas, e substituí-las por arquivos de áudio gerados na hora, teria exigido um esforço de ciência da computação multidisciplinar.

Mas a IA generativa moderna faz o trabalho pesado sozinha. "Só precisamos de três segundos da voz de um indivíduo para cloná-la", diz o blog, acrescentando que, hoje em dia, esses tipos de deepfakes são feitos por meio de API.

A ameaça do audio-jacking vai além de enganar vítimas inadvertidas para depositar fundos na conta errada. Os pesquisadores também apontam que poderia funcionar como uma forma invisível de censura, com o potencial de alterar o conteúdo de transmissões de notícias ao vivo ou discursos políticos em tempo real.

Artigos recomendados: DPF e Biometria


Fonte:https://cointelegraph.com/news/security-researchers-unveil-deepfake-artificial-intelligenceai-audio-attack-hijacks-live-conversations 

Nenhum comentário:

Postar um comentário