Páginas

7 de set. de 2022

Deepfakes estão roubando a cena no 'America's Got Talent'. Em breve eles vão roubar muito mais também?




Fortune, 06/09/2022 



Por Jeremy Kahan 



A Metaphysic chamou a atenção de Simon Cowell com um deepfake ao vivo da celebridade. Os fraudadores também estão prestando atenção.

Deepfakes estão ficando assustadoramente bons. Se houvesse alguma dúvida sobre isso, o America's Got Talent desta temporada deveria servir como um alerta. Uma startup chamada Metaphysic conseguiu avançar para a rodada final do concurso de talentos, que vai ao ar na próxima semana, produzindo deepfakes notáveis ​​de Simon Cowell e dos outros juízes do concurso em tempo real. Os jurados ficaram impressionados ao ver artistas que têm apenas a mais vaga semelhança com eles – um rosto e formato de corpo um pouco semelhantes – de repente se transformarem em seus doppelgangers digitais, bem diante de seus olhos.

Bem-vindo ao mundo dos deepfakes ao vivo. Dois anos atrás, a maioria dos softwares de deepfake não conseguia criar uma probabilidade convincente de alguém sem muitas imagens do alvo do deepfake - e é por isso que as celebridades eram frequentemente usadas para deepfakes, já que muitas fotos deles de vários ângulos estão prontamente disponíveis. Além do mais, para acertar os detalhes – principalmente ao redor da boca, olhos e mandíbula – para que o deepfake fosse realmente convincente, exigiu um bom trabalho de pós-produção. Por fim, os modelos de IA que criaram o deepfake não puderam ser executados com rapidez suficiente para produzir o deepfake de forma confiável em tempo real por meio de um vídeo transmitido. Hoje, nenhuma dessas coisas é problema. Deepfakes críveis podem ser implantados em uma transmissão de vídeo ao vivo.

Agora, isso não quer dizer que todos os deepfakes ao vivo são tão bons quanto o deepfake de Cowell no America's Got Talent. Isso porque o gênio criativo por trás do Metaphysic não é outro senão Chris Ume, um dos maiores artistas de deepfake do mundo (ele produziu aqueles deepfakes virais de Tom Cruise que quebraram a internet 18 meses atrás), que reproduz tudo, desde ruga e microgesto. Mas o software está disponível gratuitamente na internet para permitir que alguém com quase nenhuma habilidade técnica produza um deepfake ao vivo e nada ruim. E a tecnologia está melhorando rapidamente.

Na verdade, está melhorando tão rapidamente que mesmo aqueles que vêm monitorando o campo de perto ficaram surpresos com seu rápido avanço. “Lembro-me de alguém me perguntando sobre deepfakes ao vivo há cerca de dois anos, e eu disse que isso levaria cerca de cinco anos. Eu estava errado”, me diz Hany Farid, cientista da computação da Universidade da Califórnia em Berkeley, um dos maiores especialistas do mundo em autenticação de imagens digitais.

Tom Graham, o advogado australiano que se tornou investidor em criptomoedas e parceiro de negócios de Ume na Metaphysic, me diz que houve, em sua opinião, um aumento de 20 vezes na qualidade dos deepfakes que sua empresa pode criar apenas no passado doze meses. Graham diz que a melhoria veio de um método que a Metaphysic usou no qual os deepfakes não são criados a partir de um único modelo de IA, mas de um composto onde diferentes modelos de IA lidam com diferentes partes do rosto de uma pessoa (por exemplo, um modelo pode funcionar para aperfeiçoar os movimentos das sobrancelhas, e outro os lábios, etc.) Mas ele também diz que o que faz deepfakes ao vivo como os que o Metaphysic está apresentando no America's Got Talent possíveis são grandes avanços na capacidade de fazer com que os sistemas de IA renderizem as imagens deepfake com rapidez suficiente para funcionar bem em vídeo em tempo real.

Graham diz que parte da razão pela qual a Metaphysic queria ir ao show de talentos era aumentar a conscientização do público sobre como os deepfakes estão ficando bons e estimular as pessoas a começarem a abandonar a velha ideia de que “ver é acreditar”.

A Metaphysic está ganhando dinheiro agora criando deepfakes para Hollywood e a indústria da publicidade. Mas também iniciou um projeto paralelo chamado Every Everyone que permite que uma pessoa envie uma selfie simples e gere um deepfake realista de si mesma que também está vinculada a um token não fungível (NFT). A ideia, de acordo com Graham, é que isso dê às pessoas a propriedade de suas próprias imagens digitais e forneça a elas um meio de controlar como elas são usadas. (Como o deepfake – Graham e Ume preferem o termo “avatar digital hiper-real” – é escrito criptograficamente em um livro digital inalterável, em teoria ele fornecerá uma maneira para as pessoas saberem que estão interagindo com você – ou pelo menos a versão falsa autorizada de você - em oposição a algum impostor fingindo ser você.)

Graham acha que essa tecnologia será a chave para tornar o metaverso uma realidade. Ele também acha que esse tipo de metaverso, onde todo mundo cria seu próprio deepfake realista de si mesmo, é muito melhor do que permitir que empresas gigantes de mídia social criem avatares para nós – e possuam todos os nossos dados biométricos no processo. “Any Everyone é um veículo para capacitar os indivíduos a se tornarem atores reais dentro das economias da Web3”, ele me diz. “Na Web2, somos usuários e consumidores e produtos. Mas na Web3, precisamos ser parceiros e não produtos.”

Isso tudo parece ótimo, mas e a maneira como os deepfakes ao vivo provavelmente sobrecarregam a fraude? Já existem relatos de pessoas usando deepfakes ao vivo na plataforma de chamada de vídeo  Zoom, tanto para crimes financeiros como para desinformação política. No mês passado, um alto executivo da exchange de criptomoedas Binance disse que os fraudadores usaram um sofisticado “holograma” de deepfake dele para enganar vários projetos de criptomoeda. (Essas alegações não foram verificadas por especialistas independentes.) Em julho, o FBI  alertou  que as pessoas poderiam usar deepfakes em entrevistas de emprego realizadas por meio de software de videoconferência. Um mês antes, vários prefeitos europeus disseram que foram inicialmente enganados por uma video-chamada deepfake supostamente com o presidente ucraniano Volodymyr Zelensky.

Graham insiste que a Metaphysic se dedica a garantir que sua própria tecnologia nunca seja usada para tais propósitos. E a empresa ajudou a criar um fórum chamado Synthetic Futures para todos os envolvidos no uso de deepfakes para entretenimento ou outros propósitos legítimos para discutir padrões para evitar o abuso da tecnologia de IA.

Mas Farid, de Berkeley, diz estar preocupado que esses padrões cheguem tarde demais e sejam fracos demais para evitar abusos generalizados. “Isso é como golpes de phishing com esteróides”, diz ele sobre deepfakes ao vivo. (Por enquanto, existem alguns métodos simples que alguém pode usar em uma videochamada para ter uma garantia razoável de que não está conversando com um deepfake. Falei sobre alguns desses métodos na semana passada nesta história)

Enquanto isso, os atores já estão preocupados que a tecnologia vai desempregá-los – ou que jovens atores serão pressionados a vender às empresas de entretenimento os direitos de usar seus dados biométricos em perpetuidade. Graham admite que todas essas questões precisam ser abordadas e que “há um papel para a regulação”, bem como para o estabelecimento de padrões. “Todos neste setor precisam trabalhar duro para construir salvaguardas”, diz ele.

Resta saber se essas salvaguardas chegarão a tempo de nos salvar de sérios danos. 

Artigos recomendados: DPF e IA


Fonte:https://fortune.com/2022/09/06/deepfakes-americas-got-talent-metaphysic-fraud-metaverse/amp/

Nenhum comentário:

Postar um comentário