Páginas

29 de jun. de 2022

Como a tecnologia pode detectar "notícias falsas" em vídeos: bots soviéticos




TX, 29/06/2022 



As redes sociais representam um importante canal para a disseminação de notícias falsas e desinformação. Essa situação se agravou com os recentes avanços nas ferramentas de edição de fotos e vídeos e de inteligência artificial, que facilitam a manipulação de arquivos audiovisuais, como os chamados deepfakes, que combinam e sobrepõem imagens, áudios e videoclipes para criar montagens que parecem filmagens reais.

Pesquisadores dos grupos K-riptography and Information Security for Open Networks (KISON) e Communication Networks & Social Change (CNSC) do Internet Interdisciplinary Institute (IN3) da Universitat Oberta de Catalunya (UOC) lançaram um novo projeto para desenvolver tecnologia inovadora que, utilizando inteligência artificial e técnicas de ocultação de dados, deverá ajudar os utilizadores a diferenciar automaticamente entre conteúdos multimídia originais e adulterados, contribuindo assim para minimizar a repostagem de notícias falsas. DISSIMILAR é uma iniciativa internacional liderada pela UOC, incluindo pesquisadores da Universidade de Tecnologia de Varsóvia (Polônia) e da Universidade de Okayama (Japão).

"O projeto tem dois objetivos: primeiro, fornecer aos criadores de conteúdo ferramentas para marcar suas criações, tornando assim qualquer modificação facilmente detectável; e segundo, oferecer aos usuários de mídia social ferramentas baseadas em processamento de sinal de última geração e métodos de aprendizado de máquina para detectar falsificações conteúdo digital", explicou o professor David Megias, pesquisador principal do KISON e diretor do IN3. Além disso, DISSIMILAR pretende incluir “a dimensão cultural e o ponto de vista do utilizador final ao longo de todo o projeto”, desde o desenho das ferramentas até ao estudo da usabilidade nas diferentes fases.

O perigo dos preconceitos

Atualmente, existem basicamente dois tipos de ferramentas para detectar notícias falsas. Em primeiro lugar, existem os automáticos baseados em aprendizado de máquina, dos quais (atualmente) existem apenas alguns protótipos. E, em segundo lugar, há as plataformas de detecção de fake news com envolvimento humano, como é o caso do Facebook e do Twitter, que exigem a participação de pessoas para verificar se determinado conteúdo é genuíno ou falso. De acordo com David Megias, essa solução centralizada pode ser afetada por “diferentes preconceitose estimular a censura. “Acreditamos que uma avaliação objetiva baseada em ferramentas tecnológicas pode ser a melhor opção, desde que os usuários tenham a última palavra para decidir, com base em uma pré-avaliação, se podem confiar ou não em determinado conteúdo”, explicou.

Para Megias, não existe uma "bala de prata única" que possa detectar notícias falsas: em vez disso, a detecção precisa ser realizada com uma combinação de diferentes ferramentas. "É por isso que optamos por explorar a ocultação de informações (marcas d'água), técnicas de análise forense de conteúdo digital (em grande parte baseadas no processamento de sinais) e, é claro, aprendizado de máquina", observou ele.

Verificação automática de arquivos multimídia

A marca d'água digital compreende uma série de técnicas no campo da ocultação de dados que incorporam informações imperceptíveis no arquivo original para poder verificar "fácil e automaticamente" um arquivo multimídia. "Ele pode ser usado para indicar a legitimidade de um conteúdo, por exemplo, confirmando que um vídeo ou foto foi distribuído por uma agência de notícias oficial, e também pode ser usado como marca de autenticação, que seria excluída no caso de modificação de o conteúdo, ou rastrear a origem dos dados. Ou seja, pode dizer se a fonte da informação (por exemplo, uma conta do Twitter) está divulgando conteúdo falso", explicou Megias.

Técnicas de análise forense de conteúdo digital

O projeto combinará o desenvolvimento de marcas d'água com a aplicação de técnicas de análise forense de conteúdo digital. O objetivo é aproveitar a tecnologia de processamento de sinal para detectar as distorções intrínsecas produzidas pelos dispositivos e programas utilizados na criação ou modificação de qualquer arquivo audiovisual. Esses processos dão origem a uma série de alterações, como ruído do sensor ou distorção óptica, que podem ser detectadas por meio de modelos de aprendizado de máquina. "A ideia é que a combinação de todas essas ferramentas melhore os resultados quando comparado ao uso de soluções únicas", afirmou Megias.

Estudos com usuários na Catalunha, Polônia e Japão

Uma das principais características do DISSIMILAR é sua abordagem "holística" e a reunião das "percepções e componentes culturais em torno das notícias falsas". Com isso em mente, serão realizados diferentes estudos focados no usuário, divididos em diferentes etapas. “Primeiro, queremos descobrir como os usuários interagem com as notícias, o que os interessam, quais mídias consomem, dependendo de seus interesses, o que usam como base para identificar determinado conteúdo como notícias falsas e o que estão preparados para fazer para verificar sua veracidade. Se conseguirmos identificar essas coisas, facilitará as ferramentas tecnológicas que projetamos para ajudar a impedir a propagação de notícias falsas", explicou Megias.

Essas percepções serão aferidas em diferentes lugares e contextos culturais, em estudos de grupos de usuários na Catalunha, Polônia e Japão, de modo a incorporar suas idiossincrasias no desenho das soluções. “Isso é importante porque, por exemplo, cada país tem governos e/ou autoridades públicas com maior ou menor grau de credibilidade das autoridades, por que devo prestar atenção às notícias provenientes dessas fontes? Isso pôde ser visto durante a crise do COVID-19: em países em que havia menos confiança nas autoridades públicas, havia menos respeito às sugestões e regras sobre o manejo da pandemia e a vacinação", disse Andrea Rosales, pesquisadora do CNSC.

Um produto fácil de usar e entender

Na segunda etapa, os usuários participarão do projeto da ferramenta para "garantir que o produto seja bem recebido, fácil de usar e compreensível", disse Andrea Rosales. “Gostaríamos que eles estivessem envolvidos conosco durante todo o processo até que o protótipo final seja produzido, pois isso nos ajudará a dar uma melhor resposta às suas necessidades e prioridades e fazer o que outras soluções não conseguiram”, acrescentou David Megias.

Esta aceitação dos utilizadores poderá, no futuro, ser um fator que leva as plataformas de redes sociais a incluir as soluções desenvolvidas neste projeto. "Se nossos experimentos derem frutos, seria ótimo se eles integrassem essas tecnologias. Por enquanto, ficaríamos felizes com um protótipo funcional e uma prova de conceito que poderia incentivar as plataformas de mídia social a incluir essas tecnologias no futuro, " concluiu David Megias.

Nota do editor do blog: é por considerar que o público não tem capacidade para ter dúvidas sobre certos temas baseadas em fatos, por seu próprio intelecto, através de conclusões lógicas, que essas pessoas determinam que seu comportamento ou parecer que contraria as fontes oficiais ou autoridades talvez seja a assimilação de algum tipo de "conteúdo falso". Essa gente pensa nas pessoas, não como indivíduos capazes, ou livres, mas como crianças que precisam de alguma autoridade sob elas para que possam discernir as coisas da maneira correta. Se o que ele diz sobre autoridade for verdade, então as fontes de notícias da Coreia do Norte são fidedignas, pois são oficializadas pelo estado, que é a autoridade final. Em todo tema da vacinação não houve nenhum tom dissonante na mídia, todos eram coesos, e isso por si só levanta dúvidas. Além disso, ele desconsidera as desconfianças pessoais dos indivíduos, que podem estar bem amparadas em fatores lógicos, como, por exemplo: as vacinas foram testadas? Por quanto tempo? Já se sabe todos os efeitos colaterais das vacinas a curto e longo prazo? Se sim, quais? Se não, quanto tempo demorou para determinarem isso? O fato de na mídia as informações virem no sentido de: "há vacinas, elas são a cura, e salvam vidas, então devemos tomá-las", não facilita as coisas, pois é muito abrupto. As "vacinas" experimentais que foram emplacadas com nenhum tempo de estudo nas campanhas em massa foram qualquer coisa, menos normais. O fato da mídia estar coesa em não questionar todas essas dúvidas naturais do público só alimentou ainda mais a desconfiança. No fim, tudo soou como um evento disruptivo, uma vez que quem se arroga a autoridade de trazer os fatos, não questionou eles, mas fez de tudo para desacreditar qualquer um. A Internet é o único meio democrático sem filtro onde as pessoas podem se expressar, e buscar informação não-filtrada. Os jornalistas, por outro lado, sob a tal liberdade de imprensa advogam para si o direito de serem a única fonte de informação. Embora declarem que o consumidor decide se é viável ou não continuar nesse ciclo midiático, ao se depararem com a perda de espaço, eles começam a induzir o público de que a Internet é uma fonte perigosa, e que o melhor seria regulá-la. Isso não serviço prestado ao público, isso e despotismo, e defendido por grupos corporativos, que deveriam se ver não como os fiadores da liberdade, mas beneficiários dela. Não existe liberdade de imprensa, se não existir liberdade de expressão e opinião. Agora além dos checadores de fatos, nós teremos algoritmos, que são desenvolvidos por pessoas enviesadas. Dá para piorar? 

Artigos recomendados: Vacinas e Big Tech


Fonte:https://techxplore.com/news/2022-06-technology-fake-news-videos.html

Nenhum comentário:

Postar um comentário