BU, 25/10/2024
Por Anthony Kimery
O avanço e a evolução da “tecnologia de deepfake convincente representam uma ameaça severa aos sistemas de autenticação tradicionais que dependem de pistas visuais ou auditivas para verificação”, alerta um novo relatório do Instituto de Tecnologia e Segurança (IST), com sede na Califórnia.
O relatório, As Implicações da Inteligência Artificial na Cibersegurança, afirma que “sistemas de autenticação biométrica que utilizam reconhecimento facial ou análise de voz já foram comprometidos pela tecnologia de deepfake em vários casos”.
No entanto, o relatório pode não fazer uma distinção clara entre violações de sistemas de autenticação que utilizam biometria facial e falsificação por IA. Violações de biometria facial poderiam levar a ataques de falsificação usando IA, mas a detecção de vivacidade ou ataques de apresentação já é amplamente implementada como uma defesa contra esse tipo de ataque.
A detecção de vivacidade utiliza algoritmos para analisar dados coletados de sensores biométricos, como rosto ou impressão digital, para determinar se a fonte é real. É mais difícil para os fraudadores contornarem a segurança com a detecção de vivacidade, pois ela utiliza interações em tempo real para verificar a identidade do usuário. A maioria dos sistemas biométricos modernos inclui mecanismos de detecção de vivacidade para diferenciar entre uma pessoa real e uma representação falsa, como verificar movimento ou analisar sutis pistas faciais em tempo real.
Por outro lado, a falsificação por IA utiliza algoritmos avançados para criar deepfakes realistas, nos quais biometria falsa é apresentada aos sistemas de segurança.
A Associação de Auditoria e Controle de Sistemas de Informação (ISACA) afirmou em um documento técnico de julho que a falsificação por IA “não se limita a criar uma correspondência falsa, mas pode estender-se a criar dados biométricos convincentes o suficiente para passar por níveis mais altos de verificação de segurança. Por exemplo, pesquisadores demonstraram como sistemas de reconhecimento facial podem ser enganados usando imagens deepfake que imitam expressões faciais, envelhecimento e outras características sutis de marcadores de identidade anteriormente confiáveis”.
O avanço da IA certamente aprimorou significativamente as técnicas de falsificação usadas contra sistemas de autenticação, tornando mais fácil para atacantes criarem identificadores biométricos realistas, tornando os ataques em grande escala mais prováveis … e mais perigosos. Qualquer avaliação da ameaça que esses ataques representam, entretanto, deve considerar sua eficácia em relação à detecção de vivacidade comumente usada para proteção contra eles.
O relatório do IST afirma que “sistemas de autenticação biométrica que utilizam reconhecimento facial ou análise de voz já foram comprometidos pela tecnologia de deepfake em vários casos”, e menciona um relatório de violação de fevereiro do Group-IB, Face Off: Group-IB Identifica o Primeiro Trojan iOS que Rouba Dados de Reconhecimento Facial.
No entanto, o relatório do Group-IB não descreve um sistema de autenticação que foi falsificado usando IA, mas sim uma violação usando dados de reconhecimento facial que foram roubados usando um "trojan móvel voltado especificamente para usuários iOS", que o Group-IB apelidou de GoldPickaxe.iOS.
O Group-IB explicou que “a família GoldPickaxe, que inclui versões para iOS e Android, é baseada no Trojan Android GoldDigger e apresenta atualizações regulares projetadas para aprimorar suas capacidades e evitar a detecção”, e “é capaz de coletar dados de reconhecimento facial, documentos de identidade e interceptar SMS. Seu irmão Android tem a mesma funcionalidade, mas também exibe outras funcionalidades típicas de Trojans Android. Para explorar os dados biométricos roubados, o agente da ameaça utiliza serviços de troca de rosto orientados por IA para criar deepfakes. Esses dados combinados com documentos de identidade e a capacidade de interceptar SMS, permitem que os criminosos cibernéticos obtenham acesso não autorizado à conta bancária da vítima – uma nova técnica de roubo monetário nunca vista pelos pesquisadores do Group-IB em outros esquemas de fraude.”
O Group-IB disse que “esse método poderia ser usado por criminosos cibernéticos para obter acesso não autorizado às contas bancárias das vítimas”.
A falsificação de IA de sistemas de autenticação biométricos habilitados é possível, pois algoritmos avançados de IA podem gerar dados biométricos falsos altamente realistas, como impressões digitais, imagens faciais ou amostras de voz, potencialmente enganando scanners biométricos e permitindo acesso não autorizado aos sistemas; no entanto, a maioria dos sistemas biométricos modernos incorpora mecanismos anti-spoofing para detectar tais tentativas, tornando cada vez mais difícil, mas não impossível, falsificar com sucesso.
E embora a falsificação de sistemas de autenticação por IA usando reconhecimento de impressão digital, escaneamento de íris e reconhecimento de voz — os métodos biométricos mais amplamente utilizados — possa ser possível, biometrias mais recentes, como reconhecimento de padrões de veias e sensores de frequência cardíaca, podem ser menos capazes de serem falsificadas e provavelmente exigiriam uma capacidade de IA que pudesse prever com precisão e em tempo real a estrutura das veias e a frequência cardíaca de uma pessoa.
Cerca de quatro anos atrás, foi relatado que a IA foi usada para fazer imagens de alta resolução de pessoas parecerem "vivas", que foram então usadas para falsificar um sistema de verificação de identidade chinês para falsificar faturas fiscais. No entanto, a reportagem sobre o suposto hacking foi baseada em um artigo no Xinhua Daily Telegraph.
Atualmente, é difícil avaliar com certeza quantas vezes houve casos em que identificadores biométricos gerados por IA foram realmente usados com sucesso, para falsificar sistemas de autenticação habilitados para biometria.
O próprio relatório do IST diz que “no momento em que este artigo foi escrito, a IA ainda não está desbloqueando novas capacidades ou resultados, mas representa um salto significativo em velocidade, escala e completude”.
O relatório do IST explora as oportunidades e os desafios da IA na segurança cibernética e se baseia em pesquisas, e entrevistas com especialistas do setor para fornecer insights sobre como as organizações estão usando a IA, como a IA impacta o cenário de ameaças e como obter os benefícios da IA.
O relatório observa que a IA pode ajudar as organizações a responder mais rapidamente a violações, melhorar a precisão e a eficiência dos analistas cibernéticos e agilizar tarefas, mas também pode ser usada por agentes maliciosos para gerar e-mails ou sites falsos, ou para clonar e personalizar sites para enganar os usuários. Os sistemas de IA também podem ser comprometidos por ataques adversários, onde os invasores manipulam dados ou entradas para confundir o sistema.
O relatório ressalta que, como a IA depende de grandes quantidades de dados, que geralmente são pessoais e sensíveis por natureza, há preocupações justificadas de que indivíduos possam, sem saber, divulgar informações pessoais aos sistemas de IA, que podem ser exploradas e mal utilizadas, como no incidente discutido pelos pesquisadores do Group-IB.
O relatório afirma que permanecer à frente na corrida armamentista da IA na segurança cibernética exigirá investimento, inovação e integração contínuos.
Nos últimos meses, o IST “conduziu uma série de pesquisas e entrevistas direcionadas com empresas tradicionais do setor, startups, consultorias e pesquisadores de ameaças para capturar insights atuais sobre como organizações e profissionais estão atualmente se envolvendo ou integrando tecnologias de IA, o impacto evolutivo dessas ferramentas no cenário de ameaças e suas previsões para o futuro”.
De acordo com o IST, seu estudo aproveitou várias instâncias “para pintar um quadro abrangente do estado da situação – cortando os caprichos e o exagero do marketing de produtos, fornecendo nossa perspectiva para o futuro próximo e, mais importante, sugerindo maneiras pelas quais o caso do otimismo pode ser concretizado”.
“A engenharia social, que já é um desafio complexo para a segurança cibernética, está se tornando ainda mais formidável com a proliferação de enganos habilitados por IA”, diz o relatório do IST, apontando que “maus atores já se passaram por executivos em esquemas de phishing, criando identidades falsas para enganar e fabricando evidências em fraudes legais e financeiras, entre outros casos de uso perigosos”.
“Não é de surpreender que os deepfakes maliciosos estejam aumentando”, diz o relatório, observando que a capacidade de detectá-los, e as táticas em que são usados “estão se tornando cada vez mais difíceis”.
O relatório diz que "após o lançamento do Sora da OpenAI, que emprega um modelo de texto para vídeo, uma pesquisa da HarrisX mostrou a 1.000 entrevistados americanos uma combinação de oito vídeos gerados por IA, e vídeos criados com ferramentas tradicionais para testar sua capacidade de identificar conteúdo gerado por IA. Os resultados da pesquisa revelaram que 'a maioria dos adultos dos EUA erroneamente adivinhou se a IA ou uma pessoa havia criado cinco dos oito vídeos que lhes foram mostrados.'"
O relatório do IST diz que a autenticação que depende de "algo que você sabe", como uma senha, frase, PIN ou respostas a perguntas de segurança, é vulnerável ao uso de IA. A "facilidade de força bruta em algo que você sabe agora é ainda menos confiável, devido à capacidade da IA de resumir e recuperar informações de grandes conjuntos de dados, para incluir fragmentos de mídia social pública, registros públicos e dados coletados de violações. Os usuários devem presumir que as respostas às suas perguntas de segurança, normalmente usadas para redefinições de senha e recuperação de conta, podem ser conhecidas por atores mal-intencionados usando recursos de IA. E agora a IA generativa demonstrou enganar alguns métodos de autenticação biométrica, colocando a confiabilidade de 'algo que você é' em risco também."
“A curto prazo, a vantagem da IA na segurança cibernética vai para o defensor”, concluiu o relatório do IST, acrescentando que “a vantagem do campo de jogo – que inclui acesso ao código-fonte de software proprietário, uma compreensão completa da arquitetura de rede e padrões típicos de usuários, e um ecossistema de provedores de serviços que estão fazendo avanços rápidos para capitalizar o potencial da IA – será difícil para um adversário superar”.
No entanto, o relatório alerta que “atores de ameaças sofisticados também estão alavancando a IA para aprimorar suas capacidades, tornando o investimento contínuo e a inovação na defesa cibernética habilitada por IA cruciais”.
O relatório faz sete recomendações, incluindo a proteção de dados confidenciais contra análises de conteúdo maliciosas habilitadas por IA, por meio da implementação de “práticas robustas de segurança cibernética, incluindo criptografia de dados, acesso com privilégios mínimos e autenticação multifator".
Nenhum comentário:
Postar um comentário