Páginas

20 de out. de 2023

Como as empresas de IA e tecnologia estão contratando atores em greve para treinar IA




MITTR, 19/10/2023 



Por Eileen Guo 



Os atores de Hollywood estão em greve devido às preocupações com o uso da IA, mas por apenas US$ 300, a Meta e uma empresa chamada Realeyes os contrataram para fazer os avatares parecerem mais humanos.

Certa noite, no início de setembro, T, um ator de 28 anos que pediu para ser identificado pela letra inicial de seu nome, sentou-se em um estúdio alugado em Hollywood diante de três câmeras, um diretor e um produtor para um filme um tanto incomum. 

A filmagem de duas horas produziu imagens que não deveriam ser vistas pelo público – pelo menos não por um público humano. 

Em vez disso, a voz, o rosto, os movimentos e as expressões de T seriam inseridos em um banco de dados de IA “para melhor compreender e expressar as emoções humanas”. Esse banco de dados ajudaria então a treinar “avatares virtuais” para Meta, bem como algoritmos para uma empresa de IA emocional com sede em Londres chamada Realeyes. (Realeyes estava administrando o projeto; os participantes só souberam do envolvimento da Meta quando chegaram ao local.)

O “estudo das emoções” decorreu de Julho a Setembro, recrutando especificamente atores. O projeto coincidiu com as históricas greves duplas de Hollywood pelo Writers Guild of America e pelo Screen Actors Guild (SAG-AFTRA). Com a indústria paralisada, o número maior do que o habitual de atores desempregados pode ter sido uma bênção para Meta e Realeyes: aqui estava um novo conjunto de “instrutores” – e pontos de dados – perfeitamente adequados para ensinar suas IA para parecer mais humana. 

Para atores como T, também foi uma grande oportunidade: uma maneira de ganhar dinheiro fácil e bom, sem ter que cruzar a linha de piquete. 

Este é um projeto totalmente baseado em pesquisa”, dizia o anúncio de emprego. Ofereceu US$ 150 por hora por pelo menos duas horas de trabalho e afirmou que “sua imagem individual não será usada para quaisquer fins comerciais”.  

Os atores podem ter presumido que isso significava que seus rostos e performances não apareceriam em um programa de TV ou filme, mas a natureza ampla do que eles assinaram torna impossível saber com certeza todas as implicações. Na verdade, para participar, tiveram de renunciar a certos direitos “perpetuamente” para tecnologias e casos de utilização que podem ainda não existir. 

E embora o anúncio de emprego insistisse que o projeto “não se qualifica como trabalho de greve” (ou seja, trabalho produzido por empregadores contra os quais o sindicato está em greve), ainda assim aborda algumas das questões centrais da greve: como as semelhanças dos atores podem ser usados, como os atores devem ser compensados ​​por esse uso e como deve ser o consentimento informado na era da IA. 

Esta não é uma batalha contratual entre um sindicato e uma empresa”, disse Duncan Crabtree-Ireland, negociador-chefe da SAG-AFTRA, num painel sobre IA no entretenimento na San Diego Comic-Con neste verão. “É existencial.”

Muitos intervenientes em toda a indústria, especialmente intervenientes de fundo (também conhecidos como figurantes), temem que a IA – tal como os modelos descritos no estudo das emoções – possa ser utilizada para os substituir, independentemente de os seus rostos exatos serem copiados ou não. E, neste caso, ao fornecerem as expressões faciais que ensinarão a IA a parecer mais humana, os participantes do estudo podem, de fato, ter sido aqueles que treinaram inadvertidamente os seus próprios potenciais substitutos. 

Nossos estudos não têm nada a ver com a greve”, disse Max Kalehoff, vice-presidente de crescimento e marketing da Realeyes, por e-mail. “A grande maioria do nosso trabalho consiste na avaliação da eficácia da publicidade para os clientes – o que não tem nada a ver com os atores e a indústria do entretenimento, exceto para avaliar a reação do público.” O momento, acrescentou ele, foi “uma infeliz coincidência”. Meta não respondeu a vários pedidos de comentários.

Dada a forma como os avanços tecnológicos muitas vezes se complementam, para não mencionar a rapidez com que o campo da inteligência artificial está evoluindo, os especialistas salientam que há um limite para o que estas empresas podem realmente prometer. 

Além do anúncio de emprego, o MIT Technology Review obteve e revisou uma cópia do contrato de licença de dados, e as suas potenciais implicações são de fato vastas. Para ser franco: quer os atores que participaram soubessem disso ou não, por apenas US$ 300, eles parecem ter autorizado Realeyes, Meta e outras partes da escolha das duas empresas a acessar e usar não apenas seus rostos, mas também suas expressões e qualquer coisa derivada delas, quase como e quando quiserem – desde que não reproduzam nenhuma semelhança individual. 

Alguns atores, como Jessica, que pediu para ser identificada apenas pelo primeiro nome, sentiram que havia algo de “exploração” no projeto – tanto nos incentivos financeiros para atores desempregados quanto na luta pela IA e pelo uso de imagem de um ator. 

Jessica, uma atriz figurante que mora em Nova York, diz que tem visto um número crescente de anúncios de empregos em IA nos últimos anos. “Não existem regras realmente claras no momento”, diz ela, “então não sei. Talvez… a intenção deles [seja] obter essas imagens antes que o sindicato assine um contrato e as estabeleça.”

Tudo isto deixa os atores, lutando após três meses de trabalho limitado ou sem trabalho, preparados para aceitar os termos da Realeyes e Meta – e, intencionalmente ou não, para afetar todos os atores, quer eles escolham pessoalmente ou não envolver-se com a IA. 

Dói agora ou dói depois”, diz Maurice Compte, ator e membro do SAG-AFTRA que teve papéis principais em programas como Narcos e Breaking Bad. Depois de revisar o anúncio de emprego, ele não pôde deixar de ver intenções nefastas. Sim, disse ele, claro que é benéfico ter trabalho, mas ele vê isso como benéfico “da mesma forma que os nativos americanos fizeram quando pegaram cobertores dos colonos brancos”, acrescentando: “Eles estavam tirando cobertores dele em um tempo de frio.”  

Humanos como dados 

A inteligência artificial é alimentada por dados, e os dados, por sua vez, são fornecidos por humanos. 

É o trabalho humano que prepara, limpa e anota os dados para torná-los mais compreensíveis para as máquinas; como relatou o MIT Technology Review, por exemplo, os aspiradores robóticos sabem evitar atropelar cocô de cachorro porque os rotuladores de dados humanos primeiro clicaram, e identificaram milhões de imagens de dejetos de animais de estimação – e outros objetos – dentro das casas. 

Quando se trata de reconhecimento facial, outras análises biométricas ou modelos generativos de IA que visam gerar humanos ou avatares semelhantes a humanos, são os rostos, movimentos e vozes humanas que servem como dados. 

Inicialmente, estes modelos eram alimentados por dados extraídos da Internet – incluindo, em diversas ocasiões, imagens de câmeras de vigilância privadas que eram partilhadas ou vendidas sem o conhecimento de ninguém.

Mas à medida que cresce a necessidade de dados de maior qualidade, juntamente com as preocupações sobre se os dados são recolhidos de forma ética e com o devido consentimento, as empresas tecnológicas progrediram da “retirada de dados de fontes publicamente disponíveis” para a “construção de conjuntos de dados com profissionais”, explica Julian Posada, professor assistente da Universidade de Yale que estuda plataformas e trabalho. Ou, pelo menos, “com pessoas que foram recrutadas, remuneradas e [e] assinaram formulários de [consentimento]”.

Mas a necessidade de dados humanos, especialmente na indústria do entretenimento, esbarra numa preocupação significativa em Hollywood: os direitos de publicidade, ou “o direito de controlar o uso do seu nome e imagem”, de acordo com Corynne McSherry, diretora jurídica do Electronic Frontier Foundation (EFF), um grupo de direitos digitais.

Este era um problema muito antes da IA, mas a IA ampliou a preocupação. A IA generativa, em particular, facilita a criação de réplicas realistas de qualquer pessoa, treinando algoritmos em dados existentes, como fotos e vídeos da pessoa. Quanto mais dados estiverem disponíveis, mais fácil será criar uma imagem realista. Isto tem um efeito particularmente grande sobre os artistas. 

Alguns atores conseguiram monetizar as características que os tornam únicos. James Earl Jones, a voz de Darth Vader, aprovou o uso de gravações arquivadas de sua voz para que a IA pudesse continuar a gerá-la para futuros filmes de Star Wars. Enquanto isso, a IA anti-envelhecimento permitiu que Harrison Ford, Tom Hanks e Robin Wright retratassem versões mais jovens de si mesmos na tela. Metaphysic AI, a empresa por trás da tecnologia de envelhecimento, assinou recentemente um acordo com a Creative Artists Agency para colocar IA generativa em uso para seus artistas. 

Mas muitos deepfakes, ou imagens de eventos falsos criados com IA de aprendizagem profunda, são gerados sem consentimento. No início deste mês, Hanks postou no Instagram que um anúncio que pretendia mostrá-lo promovendo um plano odontológico não era na verdade ele. 

O cenário da IA ​​é diferente para quem não é celebridade. Cada vez mais, os atores secundários são solicitados a passar por exames corporais digitais no set, onde têm pouco poder para reagir ou até mesmo obter clareza sobre como esses exames serão usados ​​no futuro. Os estúdios dizem que os scans são usados ​​principalmente para aumentar as cenas de multidão, o que eles vêm fazendo com outras tecnologias na pós-produção há anos – mas de acordo com representantes do SAG, uma vez que os estúdios tenham capturado as imagens dos atores, eles se reservam o direito de usá-las para sempre. (Já houve vários relatos de dubladores de que suas vozes apareceram em videogames diferentes daqueles para os quais foram contratados.)

No caso do estudo Realeyes e Meta, podem ser “dados de estudo” em vez de digitalizações corporais, mas os atores estão lidando com a mesma incerteza quanto à forma como as suas imagens digitais poderão um dia ser utilizadas.

Ensinando a IA a parecer mais humana

A US$ 150 por hora, o estudo da Realeyes pagou muito mais do que a taxa diária de cerca de US$ 200 do atual contrato do Screen Actors Guild (empregos não sindicalizados pagam ainda menos). 

Isso tornou o show uma proposta atraente para jovens atores como T, que estava começando em Hollywood – um ambiente notoriamente desafiador, mesmo que ele não tivesse chegado pouco antes do início da greve SAG-AFTRA. (T não trabalhou em empregos sindicais suficientes para aderir oficialmente ao sindicato, embora espere fazê-lo um dia.) 

Na verdade, ainda mais do que um trabalho de atuação padrão, T descreveu atuar para Realeyes como “como um workshop de atuação onde… você tem a chance de melhorar suas habilidades de atuação, o que achei que me ajudou um pouco”.

Durante duas horas, T respondeu a instruções como “Conte-nos algo que o deixe com raiva”, “Conte uma história triste” ou “Faça uma cena assustadora onde você esteja com medo”, improvisando uma história ou cena apropriada para cada um. Ele acredita que é esse requisito de improvisação que explica por que Realeyes e Meta estavam recrutando especificamente atores. 

Além de querer o pagamento, T participou do estudo porque, no seu entender, ninguém veria os resultados publicamente. Em vez disso, foi uma pesquisa para Meta, como ele aprendeu quando chegou ao estúdio e assinou um contrato de licença de dados com a empresa que ele apenas folheou. Foi a primeira vez que ele ouviu que Meta estava ligado ao projeto. (Ele já havia assinado um contrato separado com a Realeyes cobrindo os termos do trabalho.) 

O contrato de licença de dados diz que a Realeyes é a única proprietária dos dados e tem todos os direitos para “licenciar, distribuir, reproduzir, modificar ou de outra forma criar e usar trabalhos derivados” gerados a partir deles, “irrevogavelmente e em todos os formatos e mídias existentes agora ou no futuro.” 

Este tipo de linguagem jurídica pode ser difícil de analisar, especialmente quando se trata de tecnologia que está mudando a um ritmo tão rápido. Mas o que isso significa essencialmente é que “você pode estar revelando coisas que não percebeu... porque essas coisas ainda não existiam”, diz Emily Poler, uma litigante que representa clientes em disputas na interseção de mídia, tecnologia e propriedade intelectual.

Se eu fosse advogada de um ator aqui, com certeza estaria investigando se alguém pode renunciar conscientemente a direitos onde as coisas ainda nem existem”, ela acrescenta. 

Como Jessica argumenta: “Depois que tiverem sua imagem, eles poderão usá-la quando e como quiserem”. Ela acha que as semelhanças dos atores poderiam ser usadas da mesma forma que os trabalhos de outros artistas, como pinturas, canções e poesia, foram usados ​​para treinar IA generativa, e ela teme que a IA possa simplesmente “criar uma composição que pareça ' humano,' como crível como humano”, mas “não seria reconhecível como você, então você não pode potencialmente processá-los” –mesmo que aquele humano gerado pela IA fosse baseado em você. 

Isso parece especialmente plausível para Jessica, dada sua experiência como atriz figurante asiático-americana em uma indústria onde a representação muitas vezes equivale a ser uma minoria simbólica. Agora, ela teme, que qualquer pessoa que contrate atores possa “recrutar alguns asiáticos” e escaneá-los para criar “um avatar asiático”, que eles possam usar em vez de “contratar um de vocês para participar de um comercial”. 

Não são apenas com as imagens que os atores devem se preocupar, diz Adam Harvey, pesquisador aplicado que se concentra em visão computacional, privacidade e vigilância e é um dos cocriadores do Exposing.AI, que cataloga os conjuntos de dados usados ​​para treinar rostos através de sistemas de reconhecimento facial. 

O que constitui “semelhança”, diz ele, está mudando. Embora a palavra seja agora entendida principalmente como significando uma semelhança fotográfica, os músicos estão desafiando essa definição para incluir semelhanças vocais. Eventualmente, acredita ele, “também será… desafiado na fronteira emocional” – isto é, os atores poderão argumentar que as suas microexpressões são únicas e devem ser protegidas. 

Kalehoff, da Realeyes, não disse para que especificamente a empresa usaria os resultados do estudo, embora tenha elaborado por e-mail que poderia haver “uma variedade de casos de uso, como a construção de melhores experiências de mídia digital, em diagnósticos médicos (ou seja, pele/músculo), condições), detecção de estado de alerta de segurança ou ferramentas robóticas para apoiar distúrbios médicos relacionados ao reconhecimento de expressões faciais (como autismo)".

Quando questionado sobre como a Realeyes definiu “semelhança”, ele respondeu que a empresa usou esse termo – assim como “comercial”, outra palavra para a qual existem definições presumidas, mas não universalmente aceitas – de uma maneira que é “a mesma para nós”, como [um] negócio geral. Ele acrescentou: “Não temos uma definição específica diferente do uso padrão”.  

Mas para T, e para outros atores, “comercial” normalmente significaria aparecer em algum tipo de anúncio, ou comercial de TV – “algo”, diz T, “que é vendido diretamente ao consumidor”. 

Fora do entendimento limitado da indústria do entretenimento, McSherry, da EFF, questiona o que a empresa quer dizer: “É uma empresa comercial que faz coisas comerciais”.

Kalehoff também disse: “Se um cliente nos pedisse para usar tais imagens [do estudo], insistiríamos em 100% de consentimento, remuneração justa para os participantes e transparência. No entanto, esse não é o nosso trabalho ou o que fazemos.” 

No entanto, esta declaração não se alinha com a linguagem do contrato de licença de dados, que estipula que, embora a Realeyes seja a proprietária da propriedade intelectual decorrente dos dados do estudo, a Meta e as “Meta partes que atuam em nome da Meta” têm amplos direitos sobre os dados. — incluindo os direitos de compartilhá-lo e vendê-lo. Isso significa que, em última análise, a forma como ele é usado pode estar fora do controle da Realeyes. 

Conforme explicado no acordo, os direitos da Meta e das partes que atuam em seu nome também incluem: 

  • Afirmar certos direitos às identidades dos participantes (“identificá-lo ou reconhecê-lo... criar um modelo exclusivo de seu rosto e/ou voz... e/ou proteger contra falsificação de identidade e uso indevido de identidade”)
  • Permitir que outros pesquisadores conduzam pesquisas futuras, usando os dados do estudo da maneira que acharem melhor (“conduzindo estudos e atividades de pesquisa futuras... em colaboração com pesquisadores terceirizados, que podem usar ainda mais os dados do estudo fora do controle da Meta”)
  • Criar trabalhos derivados dos dados do estudo para qualquer tipo de uso a qualquer momento (“usar, distribuir, reproduzir, executar publicamente, exibir publicamente, divulgar e modificar ou de outra forma criar trabalhos derivados dos Dados do Estudo, em todo o mundo, irrevogavelmente e em perpetuidade, e em todos os formatos e mídias existentes agora ou no futuro”)

O único limite de uso era que a Meta e as partes “não usariam dados de estudo para desenvolver modelos de aprendizado de máquina que gerassem seu rosto ou voz específica em qualquer produto Meta (ênfase adicionada). Ainda assim, a variedade de possíveis casos de uso — e usuários — é enorme. E o acordo faz pouco para acalmar as ansiedades específicas dos atores de que “no futuro, esse banco de dados é usado para gerar um trabalho, e esse trabalho acaba se parecendo muito com o desempenho de [alguém]”, como diz McSherry.

Quando perguntei a Kalehoff sobre a aparente lacuna entre os seus comentários e o acordo, ele negou qualquer discrepância: “Acreditamos que não há contradições em quaisquer acordos, e mantemos o nosso compromisso com os atores, tal como declarado em todos os nossos acordos, para proteger totalmente as suas imagem e sua privacidade.” Kalehoff se recusou a comentar o trabalho da Realeyes com clientes ou a confirmar que o estudo foi realizado em colaboração com a Meta.

Enquanto isso, a Meta vem construindo “avatares Codec” 3D fotorrealistas que vão muito além das imagens de desenho animado em Horizon Worlds, e exigem dados de treinamento humano para serem aperfeiçoados. O CEO Mark Zuckerberg descreveu recentemente esses avatares no popular podcast do pesquisador de IA Lex Fridman, como fundamentais para sua visão do futuro – onde a realidade física, virtual e aumentada coexistem. Ele imagina os avatares “proporcionando uma sensação de presença, como se vocês estivessem juntos, não importa onde vocês realmente estejam no mundo”.

Apesar de vários pedidos de comentários, a Meta não respondeu a nenhuma pergunta do MIT Technology Review, portanto não podemos confirmar para que usaria os dados ou o que significa “partes agindo em seu nome”. 

Escolha individual, impacto coletivo

Ao longo das greves de escritores e atores, tem havido uma sensação palpável de que Hollywood está avançando para uma nova fronteira que moldará a forma como nós – todos nós – nos envolvemos com o avanço da inteligência artificial. Normalmente, essa fronteira é descrita com referência aos direitos dos trabalhadores; a ideia é que o que quer que aconteça aqui afetará os trabalhadores de outras indústrias, que estão debatendo com o que a IA significará para os seus próprios meios de subsistência. 

Os ganhos obtidos pelo Writers Guild já forneceram um modelo de como regular o impacto da IA ​​no trabalho criativo. O novo contrato do sindicato com os estúdios limita o uso de IA nas salas dos roteiristas, e estipula que apenas autores humanos podem ser creditados nas histórias, o que impede os estúdios de proteger os direitos autorais de trabalhos gerados por IA, e serve ainda como um grande desincentivo ao uso de IA para escrever roteiros. 

No início de Outubro, o sindicato dos atores e os estúdios também regressaram à mesa de negociações, na esperança de fornecer orientações semelhantes aos atores. Mas as conversações foram rapidamente interrompidas porque “está claro que a diferença entre a AMPTP [Aliança de Produtores de Cinema e Televisão] e a SAG-AFTRA é demasiada grande”, como afirmou a aliança de estúdios num comunicado de imprensa. A IA generativa – especificamente, como e quando se espera que os atores secundários consintam com a digitalização corporal – foi supostamente um dos pontos de discórdia. 

Qualquer que seja o acordo final a que cheguem, não proibirá o uso de IA pelos estúdios – esse nunca foi o ponto. Mesmo os intervenientes que discordaram dos projetos de formação em IA têm opiniões mais diferenciadas sobre a utilização da tecnologia. “Não vamos eliminar totalmente a IA”, reconhece Compte, o ator de Breaking Bad. Em vez disso, “apenas temos de encontrar formas que beneficiem o quadro mais amplo… [Trata-se realmente de salários dignos]”.

Mas um acordo futuro, que será especificamente entre os estúdios e a SAG, não será aplicável a empresas de tecnologia que conduzam projetos de “pesquisa”, como Meta e Realeyes. Os avanços tecnológicos criados com um propósito – talvez aqueles que resultam de um estudo de “investigação” – também terão aplicações mais amplas, no cinema e não só. 

A probabilidade de que a tecnologia desenvolvida seja usada apenas para isso [envolvimento do público ou avatares Codec] é extremamente pequena. Não é assim que funciona”, diz McSherry, da EFF. Por exemplo, embora o acordo de dados para o estudo das emoções não mencione explicitamente a utilização dos resultados para IA de reconhecimento facial, McSherry acredita que estes poderiam ser usados ​​para melhorar qualquer tipo de IA que envolva rostos ou expressões humanas.

(Além disso, os próprios algoritmos de detecção de emoções são controversos, quer funcionem ou não da maneira que os desenvolvedores dizem que funcionam. Será que realmente queremos que “nossos rostos sejam julgados o tempo todo [com base] nos produtos que estamos vendo?” pergunta Posada, o professor de Yale.)

Tudo isso torna o consentimento para esses amplos estudos de pesquisa ainda mais complicado: não há como um participante optar por participar ou não de casos de uso específicos. T, por exemplo, ficaria feliz se sua participação significasse melhores opções de avatar para mundos virtuais, como aqueles que ele usa com seu Oculus – embora ele não concorde especificamente com isso. 

Mas o que devem fazer os participantes individuais do estudo – que podem precisar do rendimento? Que poder eles realmente têm nesta situação? E que poder têm as outras pessoas – mesmo as pessoas que se recusaram a participar – para garantir que não serão afetadas? A decisão de treinar IA pode ser individual, mas o impacto não; é coletivo.

Depois que eles alimentam sua imagem e... uma certa quantidade de imagens de pessoas, eles podem criar uma variedade infinita de pessoas com aparência semelhante”, diz Jessica. “Não está infringindo seu rosto, por si só.” Mas talvez seja esse o ponto: “Eles estão usando a sua imagem sem… serem responsabilizados por isso”.

T considerou a possibilidade de que, um dia, a pesquisa para a qual contribuiu possa muito bem substituir os atores. 

Mas pelo menos por enquanto, é uma hipótese. 

Eu ficaria chateado”, reconhece ele, “mas, ao mesmo tempo, se não fosse eu, eles provavelmente descobririam uma maneira diferente – uma maneira mais sorrateira, sem obter o consentimento das pessoas”. Além disso, acrescenta T, “eles pagaram muito bem”. 

Artigos recomendados: Treino e Cibernético


Fonte:https://www.technologyreview.com/2023/10/19/1081974/meta-realeyes-artificial-intelligence-hollywood-actors-strike/ 

Nenhum comentário:

Postar um comentário