26 de set. de 2023

Empresa de biometria facial diz que rostos sintéticos podem resolver problemas de preconceito algorítmico




BU, 25/09/2023 



Por Masha Borak 



Rostos sintéticos podem resolver preconceitos algorítmicos e dilemas éticos de dados: IDVerse

Durante anos, muitos dos sistemas de IA utilizados para reconhecimento facial e verificação de identidade tiveram problemas de preconceito racial e de gênero. Os sistemas demonstraram taxas mais elevadas de erros de identificação para pessoas com pele mais escura e, por vezes, contribuíram para detenções injustas. A principal razão por trás disso são os dados nos quais os modelos de IA foram treinados, que incluem desproporcionalmente rostos brancos e masculinos.

Para contrariar esta situação, algumas empresas estão enriquecendo os seus conjuntos de dados com rostos falsos. A IA generativa pode criar uma grande quantidade de dados, capturando a singularidade dos humanos em diferentes cenários e ambientes, afirma o cofundador e diretor de tecnologia da IDVerse, Matthew Adams.

“Somos capazes de gerar tantas condições e tantas variantes diferentes de certos rostos que excedem em muito o que você conseguiria na realidade”, diz ele. “Você inerentemente obtém melhores resultados, obtém muito menos preconceito.”

IDVerse usa IA generativa para treinar os sistemas de rede neural profunda usados ​​em sua tecnologia de IA “Zero Bias”. A empresa australiana, anteriormente conhecida como OCR Labs, afirma que ajuda a minimizar a discriminação com base na raça, idade e sexo e afirma ter 99,99% de precisão nos testes.

Rostos sintéticos também estão sendo usados ​​para resolver outros problemas para desenvolvedores de biometria como o IDVerse.

Embora os governos globais tenham emitido alertas sobre o potencial dos deepfakes para minar as democracias, semeando a confusão, as empresas já estão combatendo um número crescente de golpes e fraudes que dependem de IA generativa. As mesmas ferramentas generativas de IA, no entanto, também podem ser usadas para detectar deepfakes durante ataques.

Rostos sintéticos quando mal usados ​​na indústria são chamados de deep fakes, é quando são usados ​​para tentar enganar sistemas de proteção”, afirma Loc Nguyen, CMO da IDVerse. “Criamos, por falta de nome melhor, 'goodfakes'. Goodfakes são usados ​​para treinar nossos algoritmos para detectar deepfakes. A mesma ferramenta, resultados diferentes.

O uso de IA generativa também pode ajudar a contornar as crescentes regulamentações de privacidade no uso de dados biométricos e, eventualmente, levar a um fornecimento mais ético de dados faciais.

A forma tradicional de treinar bons algoritmos de IA tem coletado o máximo de dados possível. Mas isso por vezes leva a práticas antiéticas, incluindo a obtenção de dados faciais de pessoas que não consentiram no seu compartilhamento. Adams acredita que é necessário um “selo nutricional” para modelos de IA que possa garantir que os rostos sejam obtidos de forma ética e com o consentimento dos proprietários.

Não conhecemos os ingredientes desses modelos. Não sabemos se foi obtido de forma ética ou como eles foram treinados”, diz ele.

Atualmente, a indústria caminha em direção a um caminho diferente de treinamento de reconhecimento facial, de acordo com o IDVerse.

Muitas empresas treinaram seus algoritmos usando dados faciais de uma região específica. Quando chega a hora de enriquecer os conjuntos de dados, eles geralmente tentam obter o máximo de dados faciais diversos que conseguem. Mas os algoritmos às vezes são incapazes de adaptar a maneira como processam rostos.

Os executivos do IDVerse dizem que “acreditam muito” no treinamento de conjuntos de dados com o máximo de dados sintéticos possível e não no uso de dados reais.

A empresa australiana foi fundada em 2014 como uma empresa de pesquisa e lançada comercialmente em 2018 como OCR Labs. Tornou-se a primeira empresa privada australiana a obter acreditação como fornecedora de identidade para operações fora do sistema de identificação digital do governo. Em maio deste ano, mudou de nome, concentrando-se em verificação biométrica, detecção de vivacidade, verificação de documentos e vídeo KYC.

A sua dependência de dados sintéticos surgiu das dificuldades em obter acesso a rostos reais.

Eticamente, não é possível obter enormes conjuntos de dados de determinadas empresas ou países”, afirma Adams. “Pelo que entendi, somos os únicos que realmente usam um modelo de rosto totalmente gerado em nossa pilha.

A IA generativa não é uma solução mágica. Também pode criar meios de comunicação sintéticos que cortejem os velhos preconceitos, diz Nguyen. Mas os deepfakes abriram muitas portas. Com os computadores de hoje, já somos capazes de coletar a mesma quantidade de faces e permutações que num cenário da vida real pode levar de 200 a 300 anos. E à medida que o poder de processamento do computador aumenta, também aumenta o número de rostos falsos. Se tudo correr conforme o planejado para o IDVerse, isso significará o fim do preconceito algorítmico no reconhecimento facial.

Artigos recomendados: RF e Citzen


Fonte:https://www.biometricupdate.com/202309/synthetic-faces-could-solve-algorithmic-bias-and-ethical-data-quandary-idverse 

Nenhum comentário:

Postar um comentário

Related Posts Plugin for WordPress, Blogger...