BU, 08/09/2023
Por Masha Borak
À medida que os deepfakes florescem em todo o mundo, os países tentam criar regulamentações que controlem as ameaças que representam.
Os esforços mais recentes vêm da principal agência de padrões técnicos da Europa, que divulgou um relatório sobre os riscos do uso de inteligência artificial para manipular representações de identidade digital. Isto não inclui apenas casos de fraude, como os da autenticação biométrica, mas também o potencial para semear confusão, prejudicar eleições e criar conflitos.
O relatório, intitulado ETSI GR SAI 011, foi divulgado esta semana pelo grupo Securing AI do European Telecommunications Standards Institute (ETSI). Como organização sem fins lucrativos, o ETSI trabalha com a Comissão Europeia e a Associação Europeia de Comércio Livre (EFTA) na definição de normas técnicas.
“As técnicas de IA permitem manipulações automatizadas que anteriormente exigiam uma quantidade substancial de trabalho manual e, em casos extremos, podem até criar dados multimídia falsos a partir do zero”, diz Scott Cadzow, presidente do ETSI Securing Artificial Intelligence Industry Specification Group, em um comunicado.
Ataques deepfake em diferentes formatos de mídia, como fotos, vídeos, áudio e texto, podem ser usados para influenciar a opinião pública. Um caso notório é o vídeo deepfake de março de 2022 do presidente ucraniano Volodymyr Zelenskyy anunciando a capitulação do país. Eles também podem ser usados em ataques pessoais destinados a arruinar a reputação da vítima ou humilhá-la, como vídeos falsificados de sexo explícito.
Mas o ETSI também destaca que os ataques deepfake têm como alvo a identificação e autenticação biométrica remota.
A identificação remota através de vídeo é utilizada em muitos países europeus pelos bancos para abrir contas para clientes e garantir a conformidade. Sistemas de reconhecimento de fala também são usados para autenticar clientes que solicitam transações. O nível de segurança destes procedimentos e a sua resultante susceptibilidade a ataques que utilizam representações de identidade manipuladas variam significativamente, alerta o relatório.
Os ataques podem envolver dados biométricos de terceiros obtidos sem o seu conhecimento ou basear-se em dados puramente sintéticos. Em agosto, a polícia de Hong Kong prendeu golpistas que usaram imagens adulteradas e cartões de identificação roubados para enganar os bancos.
Os ataques deepfake também incluem engenharia social, como o chamado ataque de fraude de CEO (também chamado de comprometimento de e-mail comercial), no qual um invasor se faz passar por uma pessoa oficial ou superior e solicita uma transferência de dinheiro. Uma pesquisa da ID R&D, por exemplo, mostrou que 40% das empresas ou de seus clientes já encontraram ataques deepfake.
“Os deepfakes representam um problema complexo, para o qual não existe panacéia, mas que pode ser melhor combatido por uma combinação de medidas em vários níveis”, afirma o relatório.
O ETSI propõe várias soluções para o flagelo do deepfake, incluindo a educação e a sensibilização e a introdução de regulamentação que exige a marcação de representações de identidade manipuladas. A nível técnico, os investigadores podem utilizar métodos de detecção, como análise forense de meios de comunicação, ou aplicar sistemas de IA treinados para detectar conteúdos manipulados.
Os ataques aos métodos de autenticação, incluindo a biometria, podem ser resolvidos diminuindo a probabilidade de o conteúdo falso ter sucesso, observa a agência. Esta estratégia inclui a introdução de um protocolo de resposta a desafios de alto nível.
Na identificação remota por vídeo, isso pode significar exigir que a pessoa execute movimentos específicos, mova objetos ou produza outros tipos de respostas. Na autenticação por voz, isso pode significar pedir à pessoa que fale palavras difíceis de pronunciar e com as quais os métodos de geração de áudio têm dificuldades. Entre outras estratégias está a medição do atraso nas respostas, pois um atraso grande pode ser um indício de que o computador está processando sua resposta.
“Uma maneira mais robusta de lidar com o risco pode ser as empresas e organizações construírem processos robustos, onde decisões importantes e transações de alto valor não sejam tomadas com base na autenticação biométrica implícita, mas em vez disso sejam sempre confirmadas usando um procedimento padrão envolvendo múltiplos fatores de autenticações”, conclui o relatório.
Artigos recomendados: DPF e UE
Fonte:https://www.biometricupdate.com/202309/european-standards-agency-releases-report-on-deepfakes
Nenhum comentário:
Postar um comentário