BU, 25/10/2024
Por Anthony Kimery
O avanço e a evolução da “tecnologia de deepfake convincente representam uma ameaça severa aos sistemas de autenticação tradicionais que dependem de pistas visuais ou auditivas para verificação”, alerta um novo relatório do Instituto de Tecnologia e Segurança (IST), com sede na Califórnia.
O relatório, As Implicações da Inteligência Artificial na Cibersegurança, afirma que “sistemas de autenticação biométrica que utilizam reconhecimento facial ou análise de voz já foram comprometidos pela tecnologia de deepfake em vários casos”.
No entanto, o relatório pode não fazer uma distinção clara entre violações de sistemas de autenticação que utilizam biometria facial e falsificação por IA. Violações de biometria facial poderiam levar a ataques de falsificação usando IA, mas a detecção de vivacidade ou ataques de apresentação já é amplamente implementada como uma defesa contra esse tipo de ataque.