Páginas

10 de set. de 2024

Lockheed Martin desenvolve sistema para identificar e combater “desinformação” online, prototipado pelo DARPA




RTN, 06/09/2024



Por Didi Rankovic 



Diversas unidades militares ao redor do mundo (notavelmente no Reino Unido durante a pandemia) têm se envolvido em esforços que, devido ao objetivo (censura) e aos participantes (militares), estão destinados a se tornarem controversos, senão ilegais.

Mas parece não haver muito desejo de aprender com os erros dos outros. A tentação de trazer o sistema de defesa para a arena política da "guerra contra a desinformação" parece ser forte demais para resistir.

Atualmente, nos EUA, a Lockheed Martin está perto de concluir um protótipo que analisará a mídia para “detectar e derrotar a desinformação”.

E por “mídia”, aqueles que encomendaram a ferramenta — chamada de programa Semantic Forensics (SemaFor) — se referem a tudo: notícias, internet e até a mídia de entretenimento. Textos, áudios, imagens e vídeos que façam parte do que é considerado “ataques de desinformação automatizados em grande escala” devem ser detectados e rotulados como falsos pela ferramenta.

O processo de desenvolvimento está quase concluído, e o protótipo é utilizado pela Agência de Projetos de Pesquisa Avançada de Defesa (DARPA) do Departamento de Defesa dos EUA.

O valor total do programa, concedido pelo Diretório de Informações do Laboratório de Pesquisa da Força Aérea (atuando em nome da DARPA) à Lockheed Martin, é de US$ 37,2 milhões, conforme relatado pela Military and Aerospace Electronics.

Relatórios indicam que, embora os métodos estatísticos de detecção usados anteriormente tenham sido “bem-sucedidos”, agora são considerados “insuficientes” para a detecção de desinformação na mídia. Por isso, a investigação sobre “inconsistência semântica” é preferida.

Um exemplo curioso fornecido é como “brincos incompatíveis” podem revelar que um rosto não é real, mas gerado por uma GAN — uma rede adversária generativa.

(GANs são um método de aprendizado de máquina).

E o propósito do SemaFor é analisar a mídia com algoritmos de tecnologia semântica, para emitir um veredito sobre se o conteúdo é autêntico ou falso.

Há mais: provar que essas atividades vêm de um ator específico tem sido praticamente impossível até agora, mas há uma “solução mental” com a qual os responsáveis pelo projeto parecem satisfeitos: inferir, em vez de identificar. Então — como antes?

São necessários “algoritmos de atribuição” para isso, e há mais adivinhações apresentadas como tecnologia confiável — nomeadamente, “algoritmos de caracterização” para decidir não apenas se a mídia foi manipulada ou gerada, mas também se o propósito é malicioso.

Agora, resta saber apenas uma coisa — como esses algoritmos são escritos.

Artigos recomendados: DARPA e Algorítmo


Fonte:https://reclaimthenet.org/darpa-system-counter-online-disinformation 

Nenhum comentário:

Postar um comentário