Páginas

19 de dez. de 2023

Investigação alega que a China está usando IA para espalhar propaganda pró-Pequim no YouTube




TX, 19/12/2023 



Por David Tuffley 



Uma investigação recente do Australian Strategic Policy Institute (ASPI), revelou uma extensa rede de canais do YouTube que promovem a opinião pública pró-chinesa e anti-EUA no mundo de língua inglesa.

A operação é bem coordenada, utilizando IA generativa para produzir e publicar conteúdo rapidamente, ao mesmo tempo que explora habilmente o sistema de recomendação algorítmica do YouTube.

Qual é o tamanho da rede?

A operação Shadow Play envolve uma rede de pelo menos 30 canais no YouTube com cerca de 730 mil assinantes. No momento em que este artigo foi escrito, os canais tinham cerca de 4.500 vídeos entre eles, com cerca de 120 milhões de visualizações.

De acordo com a ASPI, os canais ganharam audiência usando algoritmos de IA para promover o conteúdo uns dos outros, aumentando assim a visibilidade. Isto é preocupante porque permite que as mensagens do Estado atravessem as fronteiras com uma negação plausível.

A rede de vídeos também apresentava um avatar de IA criado pela empresa britânica de inteligência artificial Synthesia, de acordo com o relatório, bem como outras entidades e narrações geradas por IA.

Embora não esteja claro quem está por trás da operação, os investigadores dizem que o controlador provavelmente fala mandarim. Depois de traçar o perfil do comportamento, concluíram que não corresponde ao de nenhum ator estatal conhecido no negócio de operações de influência online. Em vez disso, sugerem que poderá ser uma entidade comercial que opera sob algum grau de direção estatal.

Estas descobertas constituem a mais recente evidência de que as operações de influência avançadas estão evoluindo mais rapidamente do que as medidas defensivas.

Conflitos de interesse do influenciador

Um paralelo claro entre a operação Shadow Play e outras campanhas de influência é a utilização de redes coordenadas de contas de redes sociais inautênticas, e de páginas que amplificam as mensagens.

Por exemplo, em 2020, o Facebook derrubou uma rede de mais de 300 contas do Facebook, páginas e contas do Instagram que eram administradas na China e postavam conteúdo sobre as eleições nos EUA e a pandemia de COVID. Como foi o caso do Shadow Play, esses ativos trabalharam juntos para espalhar o conteúdo e fazê-lo parecer mais popular do que realmente era.

A legislação atual é suficientemente forte?

Os atuais requisitos de divulgação de conteúdos patrocinados apresentam algumas lacunas gritantes quando se trata de abordar campanhas de influência transfronteiriças. A maior parte da regulamentação australiana de proteção ao consumidor e de publicidade concentra-se em patrocínios comerciais, e não em conflitos de interesses geopolíticos.

Plataformas como o YouTube proíbem práticas enganosas em suas regras declaradas. No entanto, identificar e fazer cumprir as violações é difícil com contas afiliadas a estados estrangeiros que ocultam quem está controlando as operações.

Determinar o que é propaganda, em oposição à liberdade de expressão, levanta questões éticas difíceis em torno da censura e das opiniões políticas. Idealmente, as medidas de transparência não deveriam restringir indevidamente o discurso protegido. Mas os espectadores ainda merecem compreender os incentivos e possíveis preconceitos de um influenciador.

As possíveis medidas poderiam incluir divulgações claras quando o conteúdo é afiliado direta ou indiretamente a um governo estrangeiro, bem como tornar os dados de afiliação e localização mais visíveis nos canais.

Como detectar conteúdo enganoso?

À medida que as tecnologias se tornam mais sofisticadas, torna-se mais difícil discernir que agenda ou conflito de interesses pode estar moldando o conteúdo de um vídeo.

Os espectadores mais exigentes podem obter alguns insights examinando o(s) criador(es) por trás do conteúdo. Eles fornecem informações sobre quem são, onde moram e sua formação? A falta de clareza pode sinalizar uma tentativa de obscurecer a sua identidade.

Você também pode avaliar o tom e o objetivo do conteúdo. Parece ser impulsionado por um argumento ideológico específico? Qual é o objetivo final do publicador: eles estão apenas tentando obter cliques ou estão persuadindo você a acreditar no ponto de vista deles?

Verifique se há sinais de credibilidade, como o que outras fontes estabelecidas dizem sobre esse criador ou suas afirmações. Quando algo parecer duvidoso, conte com jornalistas e verificadores de fatos confiáveis.

E certifique-se de não consumir muito conteúdo de um único criador. Obtenha informações de fontes confiáveis ​​de todo o espectro político para que você possa tomar uma posição informada.

A figura maior

O avanço da IA ​​poderá ampliar exponencialmente o alcance e a precisão das operações de influência coordenadas se não forem implementadas salvaguardas éticas. No seu extremo, a propagação irrestrita da propaganda da IA ​​poderia minar a verdade e manipular acontecimentos do mundo real.

As campanhas de propaganda não podem limitar-se a tentar moldar narrativas e opiniões. Eles também poderiam ser usados ​​para gerar conteúdo hiper-realista de texto, áudio e imagem destinado a radicalizar os indivíduos. Isto poderia desestabilizar enormemente as nossas sociedades.

Já estamos vendo os precursores do que poderiam se tornar operações psicológicas de IA com a capacidade de falsificar identidades, vigiar cidadãos em massa e automatizar a produção de desinformação.

Sem aplicar um quadro ético ou de supervisão à moderação de conteúdos e aos algoritmos de recomendação, as plataformas sociais poderiam efetivamente atuar como megaamplificadores de desinformação otimizados para o tempo de visualização, independentemente das consequências.

Com o tempo, isto pode minar a coesão social, derrubar eleições, incitar à violência e até minar as nossas instituições democráticas. E, a menos que avancemos rapidamente, o ritmo da inovação maliciosa poderá ultrapassar quaisquer medidas regulamentares.

É mais importante do que nunca estabelecer supervisão externa para garantir que as plataformas de redes sociais funcionem para um bem maior, e não apenas para o lucro a curto prazo.

Artigos recomendados: Psyop e China


Fonte:https://techxplore.com/news/2023-12-ai-driven-pro-china-propaganda-youtube.html 

Nenhum comentário:

Postar um comentário