BU, 03/03/2023
Por Joel R McConvey
A questão da identidade digital está prestes a ficar muito mais complicada e muito mais importante, à medida que o mundo começa a contar com a proliferação de deepfakes. Internacionalmente, os governos estão alertando sobre os riscos que acompanham a inteligência artificial (IA) generativa, que pode combinar ferramentas como biometria facial, síntese de voz e modelos de linguagem para criar avatares realistas. Conforme relatado na Fast Company, no New York Times e em outros lugares, da geopolítica à pornografia, o potencial de desinformação, disrrupção e uso indevido é um problema sério.
Muitos de nós já encontramos uma persona de IA em anúncios online, vídeos de treinamento ou tutoriais. Mas o uso de algoritmos que avançam rapidamente está se espalhando. Nos últimos meses, surgiram vídeos com a intenção de mostrar pessoas com sotaque americano apoiando um golpe em Burkina Faso ou celebrando o conhecimento geopolítico chinês. Essas pessoas virtuais não são perfeitas; seus rostos e vozes lembram o vale sinistro. Mas eles são a primeira onda de tecnologia que muitos antecipam que transformará a forma como pensamos sobre identidade digital, biometria e a própria realidade.
Os governos podem acompanhar a IA?
Com a introdução do chatbot GPT da Open AI, as possibilidades de uso generalizado já estão explodindo: âncoras de notícias deepfake espalhando informações falsas; políticos deepfake fazendo declarações falsas; celebridades deepfake em posições comprometedoras – todos levaram a regulamentações com o objetivo de responder à rápida proliferação de uma tecnologia que impactará todas as áreas da sociedade.
Na Índia, de acordo com o Economic Times, o primeiro-ministro Narendra Modi está exigindo que as empresas de mídia social tomem “medidas razoáveis e práticas” para remover imagens deepfake de suas plataformas.
“Fomos alertados sobre deepfakes em nossas agências”, segundo nota divulgada pelo Ministério da Eletrônica e Tecnologia da Informação (MeitY). Os diretores de conformidade de empresas como Facebook, Instagram, WhatsApp, Twitter e YouTube foram informados de que agora têm 24 horas para tratar de reclamações relacionadas a deepfakes feitas por indivíduos. (As respostas às reclamações que vêm de órgãos governamentais ou via ordem judicial têm 36 horas.)
A MeitY também incentivou as empresas a implementar suas próprias proteções contra conteúdo adulterado ou outras ferramentas de aprendizado generativos que possam violar os contratos do usuário.
Projeto de lei criminaliza distribuição de deepfake
No estado norte-americano de Minnesota, dirigindo-se ao Comitê de Eleições da Câmara, o deputado democrata Zack Stephenson fez um discurso que deixou claro como a IA generativa e os deepfakes se tornaram sofisticados.
“Com a crescente sofisticação dessas tecnologias, está se tornando mais fácil criar notícias falsas ou propagandas convincentes destinadas a manipular a opinião pública. Isso tem sérias implicações para a privacidade, a liberdade de expressão e a integridade de nossas eleições”, disse ele, de acordo com uma reportagem do Duluth News Tribune.
Ironicamente, porém, Stephenson revelou que seus comentários foram, de fato, gerados pelo Chat GPT.
Poderia haver consequências legais para qualquer um que criasse pornografia deepfake, pois ele apresentou um projeto de lei que tornaria uma contravenção grosseira “distribuir sem consentimento imagens alteradas de uma pessoa nua ou em um ato sexual quando a pessoa não estava realmente nua ou praticando sexo”, e um crime por postar conscientemente deepfakes pornográficos para assédio.
A lei seguiria medidas semelhantes na Califórnia e no Texas, destinadas a regular o uso de deepfakes.
Artigos recomendados: DPF e ID
Nenhum comentário:
Postar um comentário