RTN, 06/09/2024
Por Didi Rankovic
Diversas unidades militares ao redor do mundo (notavelmente no Reino Unido durante a pandemia) têm se envolvido em esforços que, devido ao objetivo (censura) e aos participantes (militares), estão destinados a se tornarem controversos, senão ilegais.
Mas parece não haver muito desejo de aprender com os erros dos outros. A tentação de trazer o sistema de defesa para a arena política da "guerra contra a desinformação" parece ser forte demais para resistir.
Atualmente, nos EUA, a Lockheed Martin está perto de concluir um protótipo que analisará a mídia para “detectar e derrotar a desinformação”.
E por “mídia”, aqueles que encomendaram a ferramenta — chamada de programa Semantic Forensics (SemaFor) — se referem a tudo: notícias, internet e até a mídia de entretenimento. Textos, áudios, imagens e vídeos que façam parte do que é considerado “ataques de desinformação automatizados em grande escala” devem ser detectados e rotulados como falsos pela ferramenta.
O processo de desenvolvimento está quase concluído, e o protótipo é utilizado pela Agência de Projetos de Pesquisa Avançada de Defesa (DARPA) do Departamento de Defesa dos EUA.
O valor total do programa, concedido pelo Diretório de Informações do Laboratório de Pesquisa da Força Aérea (atuando em nome da DARPA) à Lockheed Martin, é de US$ 37,2 milhões, conforme relatado pela Military and Aerospace Electronics.
Relatórios indicam que, embora os métodos estatísticos de detecção usados anteriormente tenham sido “bem-sucedidos”, agora são considerados “insuficientes” para a detecção de desinformação na mídia. Por isso, a investigação sobre “inconsistência semântica” é preferida.
Um exemplo curioso fornecido é como “brincos incompatíveis” podem revelar que um rosto não é real, mas gerado por uma GAN — uma rede adversária generativa.
(GANs são um método de aprendizado de máquina).
E o propósito do SemaFor é analisar a mídia com algoritmos de tecnologia semântica, para emitir um veredito sobre se o conteúdo é autêntico ou falso.
Há mais: provar que essas atividades vêm de um ator específico tem sido praticamente impossível até agora, mas há uma “solução mental” com a qual os responsáveis pelo projeto parecem satisfeitos: inferir, em vez de identificar. Então — como antes?
São necessários “algoritmos de atribuição” para isso, e há mais adivinhações apresentadas como tecnologia confiável — nomeadamente, “algoritmos de caracterização” para decidir não apenas se a mídia foi manipulada ou gerada, mas também se o propósito é malicioso.
Agora, resta saber apenas uma coisa — como esses algoritmos são escritos.
Artigos recomendados: DARPA e Algorítmo
Fonte:https://reclaimthenet.org/darpa-system-counter-online-disinformation
Nenhum comentário:
Postar um comentário