CTPH, 05/02/2024
Por Tristan Greene
A IA foi capaz de manipular uma conversa ao vivo entre duas pessoas sem que nenhuma delas percebesse.
Pesquisadores de segurança da IBM recentemente descobriram uma técnica "surpreendentemente e assustadoramente fácil", para sequestrar e manipular conversas ao vivo usando inteligência artificial (IA).
O ataque, chamado de "audio-jacking", baseia-se em IA generativa – uma classe de IA que inclui o ChatGPT da OpenAI e o Llama-2 da Meta – e tecnologia de áudio deepfake.
Audio-jacking
No experimento, os pesquisadores instruíram a IA a processar áudio de duas fontes em uma comunicação ao vivo – como uma conversa telefônica. Ao ouvir uma palavra-chave ou frase específica, a IA é instruída a interceptar o áudio relacionado e manipulá-lo antes de enviá-lo para o destinatário pretendido.
De acordo com um post no blog da IBM Security, o experimento terminou com a IA interceptando com sucesso o áudio de um palestrante, quando foram solicitados pelo outro palestrante humano a fornecer suas informações bancárias. A IA então substituiu a voz autêntica por áudio deepfake, fornecendo um número de conta diferente. O ataque não foi detectado pelos "alvos" no experimento.
IA generativa
O blog destaca que, embora executar o ataque exija algum nível de engenharia social ou phishing, desenvolver o sistema de IA em si não representou grande desafio:
"A construção deste PoC [prova de conceito] foi surpreendentemente e assustadoramente fácil. Passamos a maior parte do tempo descobrindo como capturar áudio do microfone e alimentá-lo para a IA generativa."
Tradicionalmente, construir um sistema para interceptar autonomamente cadeias de áudio específicas, e substituí-las por arquivos de áudio gerados na hora, teria exigido um esforço de ciência da computação multidisciplinar.
Mas a IA generativa moderna faz o trabalho pesado sozinha. "Só precisamos de três segundos da voz de um indivíduo para cloná-la", diz o blog, acrescentando que, hoje em dia, esses tipos de deepfakes são feitos por meio de API.
A ameaça do audio-jacking vai além de enganar vítimas inadvertidas para depositar fundos na conta errada. Os pesquisadores também apontam que poderia funcionar como uma forma invisível de censura, com o potencial de alterar o conteúdo de transmissões de notícias ao vivo ou discursos políticos em tempo real.
Artigos recomendados: DPF e Biometria
Nenhum comentário:
Postar um comentário