Páginas

16 de ago. de 2023

Apenas uma gravação de voz de 1 minuto é necessário para clonar sua voz




GH, 16/08/2023 



A IA Generativa (GAI) tornou-se um catalisador para a mudança, introduzindo novas formas de fazer negócios, gerenciar dados, reunir insights e reunir conteúdo. 

Como uma tecnologia inteligente e altamente capaz, tornou-se uma ferramenta poderosa na caixa de ferramentas de negócios, fornecendo análise, suporte e funcionalidade rápidas.

Lamentavelmente, o imenso potencial do GAI está sendo explorado por cibercriminosos, que o aproveitaram para fins maliciosos, como criar deep fakes convincentes e perpetrar fraudes de voz irritantemente realistas. 

Em 2019, a tecnologia foi usada para se passar pela voz do CEO de uma empresa de energia do Reino Unido para extorquir $ 243.000. 

Em 2021, uma empresa em Hong Kong foi fraudada em $ 35 milhões. Esses ataques não visam apenas grandes corporações; indivíduos também estão sendo visados. Golpes de clonagem de voz, como fraudes de sequestro, pedidos de dinheiro de amigos ou familiares e chamadas de emergência, fazem parte desses golpes que estão se mostrando difíceis de detectar.

Os golpistas são incrivelmente inteligentes”, diz Stephen Osler, cofundador e diretor de desenvolvimento de negócios da Nclose. 

Usando ferramentas disponíveis online, os golpistas podem criar conversas realistas que imitam a voz de um indivíduo específico usando apenas alguns segundos de áudio gravado. Embora eles já tenham como alvo indivíduos que fazem compras em plataformas como Gumtree ou Bob Shop, bem como envolvidos em golpes de sequestro falso, eles agora estão expandindo suas operações para atingir executivos de alto nível com golpes de C-Suite”.

É fácil ver o potencial dos cibercriminosos considerando o número de pessoas que usam notas de voz para passar instruções rapidamente a um membro da equipe, ou organizar pagamentos. Executivos ocupados costumam usar plataformas como o WhatsApp para enviar mensagens às pessoas enquanto dirigem ou correm entre as reuniões, o que torna difícil, senão impossível, que os funcionários reconheçam que a mensagem é falsa.

Um administrador de TI pode receber uma nota de voz de seu gerente, solicitando uma redefinição de senha para seu acesso ao O365”, explica Osler. “Sem saber da intenção maliciosa, o administrador obedece, pensando que é uma instrução legítima. No entanto, na realidade, eles fornecem involuntariamente credenciais privilegiadas para um agente de ameaça. Essas informações podem ser exploradas para obter acesso não autorizado à infraestrutura crítica de negócios e potencialmente implantar ransomware.

E de onde vêm esses clipes de voz? 

Bem, desde notas de voz enviadas por meio de plataformas como WhatsApp ou Facebook Messenger, postagens em redes sociais e telefonemas. Os golpistas podem explorar vários métodos, como gravar chamadas com CEOs, criar deep fakes ou extrair amostras de voz de vídeos ou postagens de perfis online de indivíduos. Os cibercriminosos têm muitas técnicas à sua disposição para capturar a identidade de voz distinta de qualquer pessoa que tenha compartilhado suas vidas online. Posteriormente, eles empregam a tecnologia de IA para manipular essas gravações, fazendo parecer que a pessoa está falando ao vivo durante a chamada ou anotação de voz.

Este é definitivamente o próximo nível de ameaças cibernéticas”, diz Osler. “A tecnologia deepfake só se tornará mais proficiente em enganar vítimas e violar organizações. Para se defender contra isso, as organizações devem garantir que tenham processos e procedimentos realmente fortes que exijam vários níveis de autenticação, especificamente para transações financeiras ou baseadas em autenticação.”

As empresas devem estabelecer um processo formal claramente definido para todas as transações. Confiar apenas em uma nota de voz do CIO ou CISO não deve ser suficiente para alterar uma senha, autenticar uma transação monetária ou conceder aos hackers acesso ao negócio. É crucial educar funcionários e usuários finais sobre os riscos em evolução associados a essas ameaças. Se eles estiverem cientes desse tipo de golpe, é mais provável que reservem um momento para verificar as informações antes de cometer um erro caro.

Sempre certifique-se de que qualquer anotação de voz ou instrução que você receba seja de uma fonte confiável. É importante checar e confirmar se a comunicação é de fato da pessoa pretendida”, conclui Osler. “Cultive uma mentalidade inquisitiva e questione a fonte, seja uma ligação, e-mail ou mensagem. Ao fazer isso, tanto as organizações quanto os indivíduos podem estar melhor preparados para identificar e se proteger contra possíveis golpes de clonagem de voz.

Artigos recomendados: DPF e IA


Fonte:https://www.georgeherald.com/News/Article/LifeStyle/only-a-1-minute-voice-note-needed-to-clone-your-voice-202308151016 

Nenhum comentário:

Postar um comentário