28 de jul. de 2022

Deefakes: tecnologia arriscada, mas intrigante para empresas




TGT, 27/07/2022 



Por Esther Ajao 



As empresas podem gerar conjuntos de dados sintéticos com a tecnologia. É útil na transmissão e para publicidade. No entanto, sua privacidade e implicações políticas podem ser perigosas.

Um anúncio online recente do Daily Voice, um site de notícias da Internet com sede em Connecticut, fazia uma oferta  de emprego visando locutores. O anúncio parecia normal, mas somente até um ponto específico: "Usaremos tecnologia de captura de imagem de vídeo e com sua imagem geraremos videoclipes para criar conteúdo continuamente no futuro".

O que o site de notícias estava prometendo usar é uma variante da tecnologia de IA conhecida como Deepfakes. Deepfakes são um tipo de IA que combina aprendizado profundo com dados ou mídia falsas ou sintéticas – informações visuais ou outras que são fabricadas, não produzidas por eventos do mundo real – para gerar conteúdo.

Enquanto alguns consideram os deepfakes apenas dados sintéticos que as empresas podem usar a seu favor para treinar modelos de aprendizado de máquina, outros os veem como uma ferramenta perigosa que pode influenciar opiniões e eventos políticos e prejudicar não apenas os consumidores com imagens falsas e enganosas, mas também organizações erodindo a confiança em dados autênticos.

Deepfakes como uma ferramenta útil

As empresas devem separar o ruim do bom com deepfakes, disse Rowan Curran, analista da Forrester Research.

É importante desambiguar essa ideia de deepfakes como uma ferramenta que os indivíduos estão usando para falsificar um discurso de um político dessas ferramentas úteis para gerar conjuntos de dados sintéticos para produtos empresariais muito úteis e escaláveis”, disse Curran.

É importante desambiguar essa ideia de deepfakes como uma ferramenta que os indivíduos estão usando para falsificar um discurso de um político dessas [ferramentas] úteis para gerar conjuntos de dados sintéticos.

Rowan Curran

Analista, Forrester Research

As empresas podem usar a tecnologia deepfake para criar conjuntos de dados sintéticos para treinar modelos de aprendizado de máquina.

A tecnologia Deepfake pode ser útil em ambientes simulados em que os modelos de aprendizado de máquina podem ser treinados em situações que não existem no mundo real ou são muito particulares para usar dados reais. Isso inclui aplicativos em setores como saúde, para simular ou complementar conjuntos de dados e transmissão, onde veículos de notícias como o Daily Voice podem gerar as vozes de podcasters populares ou apresentadores de rádio em diferentes idiomas.

Outra aplicação para deepfakes é permitir que as empresas divulguem suas mensagens em escala. Um fornecedor que desenvolve esse tipo de tecnologia é a Hour One.

A Hour One usa IA para gerar vídeos de pessoas que deram permissão à empresa para usar sua imagem. O fornecedor coletou mais de 100 caracteres ou deepfakes baseados em pessoas reais. Uma de suas clientes, Alice Recepcionista, utiliza os personagens para gerenciar recepcionistas virtuais que cumprimentam e fornecem informações aos visitantes e conectam funcionários a visitantes por meio de chamadas de vídeo ou áudio.

Duplicar e enganar

O fornecedor protege seus dados e imagens de golpistas e daqueles que querem enganar os outros com a tecnologia, disse Natalie Monbiot, chefe de estratégia da Hour One.

"A coisa toda sobre fraudes e golpes é um problema sistêmico", disse Monbiot, referindo-se à prática de hackers obterem acesso a perfis de mídia social de consumidores e dados confidenciais de organizações. “Entendemos que a mídia sintética pode ser outra maneira de enganar e manipular, mas, honestamente, não é necessário que a fraude e o golpe aconteçam em primeiro lugar”.

Golpes e engano de consumidores e empresas podem acontecer mesmo sem mídia sintética e esse tipo de tecnologia, e a Hour One possui documentação legal para proteger seus personagens, disse Monbiot.

Mas com mídia sintética e ferramentas de deepfake avançadas que permitem que praticamente qualquer pessoa crie imagens falsas de qualidade relativamente alta, é fácil para os maus atores influenciarem o público para fins políticos - e para as empresas aumentarem a publicidade de maneiras que os espectadores  não podem detectar.

"A publicidade enganosa tem uma longa e orgulhosa herança para os consumidores americanos", disse Darin Stewart, analista do Gartner. "Essa tendência vai aumentar isso como se tivesse tomado esteróides."

Enquanto isso, as organizações começaram a surgir para combater a ameaça da tecnologia deepfake online.

A organização sem fins lucrativos Organization for Social Media Safety patrocinou uma legislação antideepfake na Califórnia. A lei proposta define deepfakes como gravações que alteram falsamente o vídeo original de uma forma que faz com que a nova gravação pareça real. A lei proíbe deepfakes sexuais e políticos criados sem consentimento. O consentimento para fins políticos é garantir que a tecnologia deepfake não seja usada para alterar o processo de votação democrático.

Parte do problema aqui é nos ficarmos a frente de novas tecnologias que podem trazer riscos, e fizemos um trabalho ruim nisso como sociedade”, disse Marc Berkman, CEO da organização de proteção ao consumidor de mídia social. "E este é um exemplo disso. Então, ficar na frente disso, impedir que as pessoas sejam prejudicadas antes que realmente se enraíze."

O uso de fraudes e manipulação usando mídias sintéticas como deepfakes não afeta apenas consumidores e figuras políticas, mas também aflige empresas.

Um exemplo citado por Stewart é uma organização que foi enganada quatro vezes. Os golpistas visavam diferentes executivos de alto nível que tinham aparições públicas frequentes. Eles então usaram as gravações de voz da pessoa para treinar um modelo de voz. Com a voz sintética, eles deixaram uma mensagem de voz para um funcionário de nível inferior pedindo a transferência de uma grande quantia de dinheiro, alegando que precisavam do dinheiro imediatamente para um acordo. O funcionário, feliz por ter sido reconhecido pelo executivo de alto nível, fez a transferência, e os golpistas acabaram com uma quantia considerável de dinheiro.

Agora que os deepfakes de vídeo estão se tornando cada vez mais de alta qualidade e menos caros de fazer, [esse tipo de golpe] só vai se expandir”, disse Stewart.

Mantendo o mal à distância

No entanto, existem maneiras de limitar os danos causados ​​por maus atores que procuram roubar ou enganar usando a tecnologia deepfake, disse Stewart. Por exemplo, um grupo de pesquisadores da Universidade de Berkeley construiu um sistema de detecção de IA treinado para detectar se um vídeo é um deepfake com base em movimentos faciais, tiques e expressões.

Mas as ferramentas de detecção funcionam depois que o dano é feito, e os golpistas já estão usando esses sistemas de detecção para treinar deepfakes melhores.

Uma cadeia de custódia de tecnologia - ou um registro de onde o vídeo ou imagem veio, quem os criou e onde as edições foram feitas - pode ser uma abordagem melhor para descobrir deepfakes. Ter esse registro de vídeos e educar as organizações sobre o processo de certificação pode ajudar a identificar o que é real e o que não é.

No entanto, a maioria das pessoas e organizações não está disposta a dar os passos extras, de acordo com Stewart.

"Essa é a maior ameaça para deepfakes", disse ele. "Muitas pessoas não vão se esforçar para determinar se algo foi manipulado ou falsificado. E uma grande parte da nossa sociedade não se importará se for."

Artigos recomendados: IA e Tech


Fonte:https://www.techtarget.com/searchenterpriseai/news/252523244/Deepfake-technology-risky-but-intriguing-for-enterprises?amp=1

Nenhum comentário:

Postar um comentário

Related Posts Plugin for WordPress, Blogger...