SI, 13/09/2022
Por Sue Poremba
Em 2019, o Google lançou um banco de dados sintético de fala com um objetivo muito específico: interromper deepfakes de áudio.
“Atores maliciosos podem sintetizar a fala para tentar enganar os sistemas de autenticação de voz”, relatou o blog da Google News Initiative na época. “Talvez igualmente preocupante, a conscientização pública de 'deep fakes' (áudio ou videoclipes gerados por modelos de deep learning) pode ser explorada para manipular a confiança na mídia.”
Ironicamente, também em 2019, o Google introduziu o sistema de inteligência artificial (IA) Translatotron para traduzir a fala para outro idioma. Em 2021, ficou claro que a manipulação de voz deepfake era um problema sério para qualquer pessoa que confiasse na IA para imitar a fala. O Google projetou o Translatotron 2 para evitar falsificação de voz.
O Google e outros gigantes da tecnologia estão em um dilema. A voz da IA nos trouxe Alexa e Siri; ele permite que os usuários usem a voz para interagir com seus smartphones e empresas para otimizar o atendimento ao cliente.
No entanto, muitas dessas mesmas empresas também lançaram – ou planejaram lançar – projetos que tornaram a IA um pouco realista. Alguém pode usar essa ferramenta para o mal tão facilmente quanto para o bem. A Big Tech, então, evitou principalmente esses produtos. As empresas concordaram que eram muito perigosas, por mais úteis que fossem.
Mas as empresas menores são tão inovadoras quanto as grandes empresas de tecnologia. Agora que a IA e o aprendizado de máquina estão um pouco democratizados, as empresas de tecnologia menores estão dispostas a assumir os riscos e as preocupações éticas da tecnologia de voz. Goste ou não, o deepfake vocal está aqui, fácil de usar e vai criar sérios problemas.
Ética (ou falta dela) na IA de voz
Algumas das maiores empresas de tecnologia estão tentando frear a IA que pode imitar pessoas vivas.
“Existem oportunidades e danos, e nosso trabalho é maximizar oportunidades e minimizar danos”, disse Tracy Pizzo Frey, membro do comitê de ética do Google, à Reuters.
É uma decisão difícil de fazer. A IA de voz pode mudar a vida de muitas pessoas. Isso permitiu que uma oradora do Rollins College, uma estudante autista não falante, fizesse seu discurso de formatura. Ou pode simplesmente tornar nossas próprias vidas mais simples. Você pode rastrear chamadas telefônicas com um assistente de voz de IA. As empresas confiam na IA para lidar com as chamadas de atendimento ao cliente com tanta facilidade que o cliente pode nunca saber que está falando com uma máquina, não com uma pessoa.
Adicionar atacantes
Mas os agentes de ameaças também podem usar isso. Em 2019, ladrões usaram “software de imitação de voz para imitar o discurso de um executivo de uma empresa” e enganaram um funcionário para transferir quase um quarto de milhão de dólares para uma conta bancária secreta na Hungria, informou o Washington Post. Apesar de achar o pedido “bastante estranho”, o diretor achou a voz muito realista, informou o artigo.
É um transtorno conhecido daqueles que foram enganados por golpistas. Endereços de e-mail e números de telefone falsificados enganam milhares de funcionários. Os golpistas acabaram de passar para ferramentas mais recentes.
Depois, há a ética em torno da clonagem de voz. É certo usar uma voz – especialmente de alguém que morreu – para fins comerciais? Quem detém os direitos de uma voz? É a própria pessoa? A família ou a propriedade? Ou é uma voz em disputa porque não é propriedade intelectual? A resposta é que uma voz não pode ter direitos autorais ou marcas registradas. Portanto, ninguém o possui (nem mesmo sua própria voz).
A clonagem de voz não tem as restrições de outras informações com direitos autorais e marcas registradas, facilitando o uso das empresas para seu ganho financeiro pessoal. A falta de proteções em torno da voz também torna a clonagem de voz para deepfakes fácil e lucrativa para os agentes de ameaças.
Ameaças de segurança cibernética em torno de deepfakes vocais
Um agente de ameaças não precisa de muito para criar deepfakes de voz. A tecnologia está prontamente disponível. Alguns minutos de uma gravação de áudio da voz de alguém farão um deepfake rudimentar. Quanto mais áudio disponível, mais realista o deepfake se torna. Os executivos são um alvo particularmente atraente. Gravações de webinars e vídeos em sites corporativos e aparições na televisão ou em conferências estão amplamente disponíveis.
Os invasores costumam usar deepfakes em comprometimentos de e-mail comercial de várias camadas. Os invasores enviam um e-mail ou mensagem de texto de phishing para um funcionário, juntamente com uma mensagem de voz deepfake na caixa de correio de voz do destinatário. Na maioria das vezes, eles tentam enviar dinheiro. O e-mail inclui detalhes sobre quanto dinheiro a vítima deve enviar e para onde, enquanto a mensagem de voz deepfake fornece a autorização para concluir a transação.
Os agentes de ameaças também estão usando deepfakes de voz com mais frequência para contornar a autenticação multifator ativada por voz. Espera-se que o uso da biometria de voz cresça 23% até 2026 , graças ao aumento do uso no setor financeiro. No entanto, à medida que a biometria de voz cresce, os agentes de ameaças estão levando as falsificações de voz a novos níveis. Os invasores estão falsificando mensagens de bancos pedindo números de contas, informou o BankInfoSecurity.
Como evitar um deepfake vocal
Como todos os sistemas de segurança cibernética, para evitar um deepfake de voz, você precisa adotar uma abordagem em várias camadas. O primeiro passo é limitar a quantidade de áudio gravado de sua organização disponível online. Webinars e outras gravações devem ter acesso restrito apenas ao tráfego de visitantes autenticados. Desencoraje executivos de alto nível de gravações de vídeo e voz nas mídias sociais. Quanto menos áudio disponível, mais difícil é criar um deepfake quase impecável.
Os funcionários devem ser incentivados a seguir um modelo de confiança zero em qualquer coisa que não siga os procedimentos normais. Questione tudo: se um chefe normalmente não deixa uma mensagem de voz para acompanhar uma mensagem de e-mail, por exemplo, verifique-a antes de agir. Se a voz parecer um pouco desligada, verifique novamente a mensagem.
Reconsidere o uso de voz como uma autenticação biométrica autônoma. Em vez disso, use-o com outras medidas de autenticação que são mais difíceis de falsificar.
Finalmente, use a tecnologia para combater a tecnologia. Se os agentes de ameaças estiverem usando IA para criar deepfakes de voz, as empresas devem usar IA e aprendizado de máquina para detectar melhor mensagens vocais falsas.
Artigos recomendados: IA e DPF
Fonte:https://securityintelligence.com/articles/entering-age-unethical-voice-tech-deepfakes/
Nenhum comentário:
Postar um comentário