PSUUD, 11/08/2022
Por Jessica Hallman
Os dispositivos móveis usam a tecnologia de reconhecimento facial para ajudar os usuários a desbloquear seus telefones de forma rápida e segura, fazer uma transação financeira ou acessar registros médicos. Mas as tecnologias de reconhecimento facial que empregam um método específico de detecção de usuários são altamente vulneráveis a ataques baseados em deepfake que podem levar a preocupações significativas de segurança para usuários e aplicativos, de acordo com uma nova pesquisa envolvendo o Penn State College of Information Sciences and Technology
UNIVERSITY PARK, Pa. — Os dispositivos móveis usam a tecnologia de reconhecimento facial para ajudar os usuários a desbloquear seus telefones com rapidez e segurança, fazer transações financeiras ou acessar registros médicos. Mas as tecnologias de reconhecimento facial que empregam um método específico de detecção de usuários são altamente vulneráveis a ataques baseados em deepfake que podem levar a preocupações significativas de segurança para usuários e aplicativos, de acordo com uma nova pesquisa envolvendo o Penn State College of Information Sciences and Technology.
Os pesquisadores descobriram que a maioria das interfaces de programação de aplicativos que usam verificação de vivacidade facial - um recurso da tecnologia de reconhecimento facial que usa visão computacional para confirmar a presença de um usuário vivo - nem sempre detecta fotos ou vídeos alterados digitalmente de indivíduos feitos para parecer um versão ao vivo de outra pessoa, também conhecida como deepfakes. Os aplicativos que usam essas medidas de detecção também são significativamente menos eficazes na identificação de deepfakes do que o que o provedor do aplicativo afirmou.
“Nos últimos anos, observamos um desenvolvimento significativo de tecnologias de autenticação e verificação facial, que foram implantadas em muitos aplicativos críticos de segurança”, disse Ting Wang, professor associado de ciências e tecnologia da informação e um dos principais pesquisadores do projeto. “Enquanto isso, também vimos avanços substanciais nas tecnologias deepfake, tornando bastante fácil sintetizar imagens faciais e vídeos com aparência ao vivo a um custo baixo. Assim, fazemos a pergunta interessante: é possível que invasores maliciosos usem indevidamente deepfakes para enganar os sistemas de verificação facial?”
A pesquisa, que foi apresentada esta semana no USENIX Security Symposium, é o primeiro estudo sistêmico sobre a segurança da verificação de vivacidade facial em configurações do mundo real.
Wang e seus colaboradores desenvolveram uma nova estrutura de ataque baseada em deepfake, chamada LiveBugger, que permite a avaliação de segurança personalizável e automatizada da verificação de vivacidade facial. Eles avaliaram seis principais interfaces comerciais de programação de aplicativos de verificação de vivacidade facial fornecidas. De acordo com os pesquisadores, quaisquer vulnerabilidades nesses produtos podem ser herdadas pelos outros aplicativos que os utilizam, potencialmente ameaçando milhões de usuários.
Usando imagens e vídeos deepfake protegidos de dois conjuntos de dados separados, o LiveBugger tentou enganar os métodos de verificação de vivacidade facial dos aplicativos, que visam verificar a identidade de um usuário analisando imagens estáticas ou de vídeo de seu rosto, ouvindo sua voz ou medindo sua resposta para executar uma ação sob comando.
Os pesquisadores descobriram que todos os quatro métodos de verificação mais comuns podem ser facilmente ignorados. Além de destacar como sua estrutura contornou esses métodos, eles propõem sugestões para melhorar a segurança da tecnologia - incluindo a eliminação de métodos de verificação que analisam apenas uma imagem estática do rosto de um usuário e a correspondência de movimentos labiais com a voz de um usuário em métodos que analisam áudio e vídeo de um usuário.
“Embora a verificação de vivacidade facial possa se defender contra muitos ataques, o desenvolvimento de tecnologias deepfake levanta uma nova ameaça, sobre a qual pouco se sabe até agora”, disse Changjiang Li, estudante de doutorado em ciências e tecnologia da informação e co-primeiro autor do artigo. "Nossas descobertas são úteis para os fornecedores corrigirem as vulnerabilidades de seus sistemas."
Os pesquisadores relataram suas descobertas aos fornecedores cujos aplicativos foram usados no estudo, com um desde que anunciou seus planos de conduzir um projeto de detecção de deepfake para lidar com a ameaça emergente.
“A verificação de vivacidade facial foi aplicada em muitos cenários críticos, como pagamentos online, serviços bancários online e serviços governamentais”, disse Wang. “Além disso, um número crescente de plataformas em nuvem começou a fornecer verificação de vivacidade facial como plataforma como serviço, o que reduz significativamente o custo e reduz a barreira para as empresas implantarem a tecnologia em seus produtos. Portanto, a segurança da verificação da vivacidade facial é altamente preocupante.”
Wang e Li colaboraram com Zhaohan Xi, estudante de doutorado em informática na Penn State; Li Wang e Shanqing Guo da Universidade de Shandong; e Shouling Ji e Xuhong Zhang da Universidade de Zhejiang. As contribuições da Penn State foram parcialmente apoiadas pela National Science Foundation.
Nota do editor do blog: repare que o estudo sobre a vulnerabilidade da tecnologia de reconhecimento facial foi conduzida por experts chineses, em conjunto com americanos, na universidade da Pensilvânia. Da mesma forma, acadêmicos americanos continuam fazendo estudos sobre edição genética com centros de pesquisas chineses. Lembre-se disso quando ouvir a retórica insossa de China vs EUA. E só para acrescentar: o intuito do estudo é tornar a tecnologia de reconhecimento facial mais eficaz, mas na realidade, ele busca torná-lo mais abrangente e necessário por conta do deepfake.
Artigos recomendados: Vigilância e Dados
Nenhum comentário:
Postar um comentário