4 de set. de 2022

Inteligência Artificial gerando conteúdo pornográfico

I.A



YF, 03/09/2022 Com TechCrunch 



Por Kyle Wigger e Amanda Silberling 



A IA está ficando melhor em gerar pornografia. Podemos não estar preparados para as consequências.

Uma mulher ruiva está ao luar, e seu rosto obscurecido. Seu corpo nu parece pertencer a um pôster que você encontraria na parede do quarto de um adolescente na puberdade – isto é, até chegar ao torso, onde três braços saem de seus ombros.

Sistemas baseados em IA, como Stable Diffusion, que traduzem prompts de texto em imagens, têm sido usados ​​por marcas e artistas para criar imagens conceituais, estampas premiadas (embora controversas) e campanhas de marketing completas.

Mas alguns usuários, com a intenção de explorar o lado mais obscuro dos sistemas, os testaram para um tipo diferente de uso: pornografia.

A pornografia de IA é tão perturbadora e imperfeita quanto você esperaria (aquela ruiva ao luar provavelmente não foi gerada por alguém com um fetiche por braços extras). Mas, à medida que a tecnologia continua a melhorar, ela evoca questões desafiadoras para especialistas em IA e profissionais do sexo (prostitutas).

A pornografia criada usando os mais recentes sistemas de geração de imagens entrou em cena pela primeira vez através dos fóruns de discussão 4chan e Reddit no início deste mês, depois que um membro do 4chan vazou o sistema de difusão estável de código aberto antes de seu lançamento oficial.. Então, na semana passada, foi lançado o que parece ser um dos primeiros sites dedicados à geração de pornografia de IA de alta fidelidade.

Chamado Porn Pen, o site permite que os usuários personalizem a aparência de modelos nus gerados por IA - todos mulheres - usando tags alternáveis como "babe", "modelo de lingerie", "gordinho", etnias (por exemplo, "russa" e "latina") e cenários (por exemplo, "quarto", "chuveiro" e cenários como "ao luar"). Os prompts (comandos) capturam modelos de frente, de trás ou de lado e alteram a aparência da foto gerada (por exemplo, "foto de filme", ​​"selfie espelhada"). No entanto, deve haver um bug nas selfies espelhadas, porque no feed de imagens geradas pelo usuário, algumas espalhadas não refletem uma pessoa - mas é claro que esses modelos não são pessoas. Porn Pen funciona indicando a seguinte mensagem “Essa pessoa não existe ”, só que é NSFW.

No fórum Hacker News do Y Combinator, um usuário que se diz o criador descreve o Porn Pen como um "experimento" usando modelos de ponta de texto para imagem.. "Removi explicitamente a capacidade de especificar texto personalizado para evitar a geração de imagens prejudiciais", ele escreveu. "Novas tags serão adicionadas assim que o algoritmo de engenharia de prompt for ajustado ainda mais." O criador não respondeu ao pedido de comentário do TechCrunch.

Mas o Porn Pen levanta uma série de questões éticas, como preconceitos nos sistemas de geração de imagens e as fontes dos dados dos quais elas surgiram. Além das implicações técnicas, é de se perguntar se a nova tecnologia para criar pornografia personalizada – supondo que ela se popularize – poderia prejudicar os criadores de conteúdo adulto que ganham a vida fazendo o mesmo.

"Acho que é um tanto inevitável que isso venha a existir quando o DALL-E [do OpenAI] surgiu", disse Os Keyes, candidato a Ph.D na Seattle University, ao TechCrunch por e-mail.. “Mas ainda é deprimente como as opções e os padrões replicam uma visão muito heteronormativo e masculina”.

Ashley, uma "trabalhadora do sexo" (prostituta) que trabalha em casos envolvendo moderação de conteúdo (adulto), acha que o conteúdo gerado pelo Porn Pen não é uma ameaça para as trabalhadoras do sexo (prostitutas) em seu estado atual.

Existe uma infinidade de mídias por aí”, disse Ashley, que não queria que seu sobrenome fosse publicado por medo de ser assediada por conta de seu trabalho. “Mas as pessoas se diferenciam não apenas por fazer o melhor conteúdo, mas também por serem uma pessoa acessível e interessante. Vai demorar muito até que a IA possa substituir isso.”

Em sites pornográficos monetizáveis ​​existentes, como OnlyFans e ManyVids, os criadores adultos devem verificar sua idade e identidade para que a empresa saiba que eles são adultos consentidos. Modelos pornográficos gerados por IA não podem fazer isso, é claro, porque não são reais.

Ashley se preocupa, no entanto, que se os sites pornográficos reprimirem a pornografia de IA, isso pode levar a restrições mais duras para profissionais do sexo (prostitutas), que já enfrentam maior regulamentação de leis como SESTA/FOSTA. O Congresso apresentou a Lei de Estudo de Trabalhadores do Sexo Seguro em 2019 para examinar os efeitos dessa legislação, o que dificulta o trabalho sexual online. Este estudo descobriu que “organizações comunitárias [tinham] relatado aumento da falta de moradia de profissionais do sexo” depois de perder a “estabilidade econômica fornecida pelo acesso a plataformas online”.

O SESTA foi vendido (apresentado) como (sendo para o) combate ao tráfico sexual infantil, mas criou uma nova lei criminal sobre prostituição que não tinha nada a ver sobre idade”, disse Ashley.

Atualmente, poucas leis em todo o mundo se referem ao pornô falsificado. Nos EUA, apenas a Virgínia e a Califórnia têm regulamentações que restringem certos usos de mídia pornográfica falsa ou falsificada.

Sistemas como Stable Diffusion "aprendem" a gerar imagens a partir de textos por exemplo. Alimentados com bilhões de fotos rotuladas com anotações que indicam seu conteúdo - por exemplo, uma foto de um cachorro rotulada "Dachshund, lente grande angular" - os sistemas aprendem que palavras e frases específicas se referem a estilos de arte específicos, estética, locais entre outras coisas.

Isso funciona relativamente bem na prática. Um prompt como "uma pintura de pássaro no estilo de Van Gogh" previsivelmente produzirá uma imagem de Van Gogh representando um pássaro. Mas fica mais complicado quando os prompts são mais vagos, referem-se a estereótipos ou tratam de assuntos com os quais os sistemas não estão familiarizados.

Por exemplo, o Porn Pen às vezes gera imagens sem uma pessoa - presumivelmente uma falha do sistema em entender o prompt. Outras vezes, como mencionado anteriormente, mostra modelos fisicamente improváveis, tipicamente com membros extras, mamilos em lugares inusitados e carne contorcida.

"Por definição, esses sistemas vão representar aqueles cujos corpos são aceitos e valorizados na sociedade dominante", disse Keyes, observando que o Porn Pen só tem categorias para pessoas cisnormativas. "Não me surpreende que você acabe com um número desproporcionalmente alto de mulheres, por exemplo."

Embora o Stable Diffusion, um dos sistemas que provavelmente sustentam o Porn Pen, tenha relativamente poucas imagens "NSFW" em seu conjunto de dados de treinamento, os primeiros experimentos de Redditors e usuários do 4chan mostram que ele é bastante competente em gerar deepfakes pornográficos de celebridades (o Porn Pen - talvez não por coincidência - tem uma opção de "celebridade"). E porque é de código aberto, não haveria nada para impedir o criador do Porn Pen de ajustar o sistema em imagens de nudez adicionais.

Definitivamente não é bom gerar [pornografia] de uma pessoa existente”, disse Ashley. “Pode ser usado para assediá-los.

A pornografia deepfake é frequentemente criada para ameaçar (chantagear) e assediar as pessoas. Essas imagens são quase sempre desenvolvidas sem o consentimento do sujeito por (pura) intenção maliciosa. Em 2019, a empresa de pesquisa Sensity AI descobriu que 96% dos vídeos deepfake online eram pornografia não consensual.

Mike Cook, pesquisador de IA que faz parte do coletivo Knives and Paintbrushes, diz que existe a possibilidade de o conjunto de dados incluir pessoas que não consentiram que sua imagem fosse usada para treinamento (da IA) dessa maneira, incluindo profissionais do sexo.

"Muitas [das pessoas nuas nos dados de treinamento] podem obter sua renda da produção de pornografia ou conteúdo adjacente à pornografia", disse Cook. "Assim como artistas, músicos ou jornalistas, as obras que essas pessoas produziram estão sendo usadas para criar sistemas que também prejudicam sua capacidade de ganhar a vida no futuro".

Em teoria, um ator pornô poderia usar proteções de direitos autorais, difamação e potencialmente até mesmo leis de direitos humanos para combater o criador de uma imagem deepfake. Mas como mostrado em um artigo nas notas do MIT Technology Review, reunir evidência em apoio do argumento jurídico pode se revelar um enorme desafio.

Quando ferramentas de IA mais primitivas popularizaram a pornografia deepfake há vários anos, em uma investigação descobriram que vídeos deepfake não consensuais estavam acumulando milhões de visualizações em sites pornográficos convencionais como o Pornhub. Outros trabalhos de deepfake encontraram um lar em sites semelhantes ao Porn Pen – de acordo com dados da Sensity, os quatro principais sites de pornografia de deepfake receberam mais de 134 milhões de visualizações em 2018.

"A síntese de imagens de IA é agora uma tecnologia difundida e acessível, e não acho que alguém esteja realmente preparado para as implicações dessa onipresença", continuou Cook. "Como tem acontecido nos últimos anos com pouca consideração pelo impacto desta tecnologia.”

Para Cook, um dos mais sites populares para pornografia gerada por IA se expandiu no final do ano passado por meio de acordos de parceiros, referências e uma API, permitindo que o serviço - que hospeda centenas de deepfakes não consensuais - sobreviva às proibições em sua infraestrutura de pagamentos. E em 2020, pesquisadores descobriram um bot do Telegram que gerou imagens deepfake ultrajantes de mais de 100.000 mulheres, incluindo meninas menores de idade.

Acho que veremos muito mais pessoas testando os limites da tecnologia e da sociedade na próxima década”, disse Cook. “Devemos aceitar alguma responsabilidade por isso e trabalhar para educar as pessoas sobre as ramificações do que estão fazendo.”

Artigos recomendados: IA e DPF


Fonte:https://finance.yahoo.com/news/ai-getting-better-generating-porn-181020024.html

Nenhum comentário:

Postar um comentário

Related Posts Plugin for WordPress, Blogger...