Páginas

12 de nov. de 2024

Meta agora permite que agências militares acessem seu software de IA, levantando dilemas morais para todos os usuários




TX, 12/11/2024 



Por Zena Assad 



A gigante tecnológica Meta anunciou que disponibilizará seus modelos de inteligência artificial (IA) generativa para o governo dos Estados Unidos, em uma decisão controversa que levanta um dilema moral para todos que utilizam o software.

Na semana passada, a Meta revelou que disponibilizará os modelos, conhecidos como Llama, para agências governamentais, “incluindo aquelas que trabalham em aplicações de defesa e segurança nacional, e parceiros do setor privado que apoiam esse trabalho”.

A decisão parece contrariar a própria política da Meta, que lista uma série de usos proibidos para o Llama, incluindo “[m]ilitar, guerra, indústrias nucleares ou aplicações”, além de espionagem, terrorismo, tráfico humano e exploração ou abuso de crianças.

A exceção da Meta também se aplicaria a agências de segurança nacional no Reino Unido, Canadá, Austrália e Nova Zelândia. A decisão foi tomada apenas três dias após a Reuters revelar que a China reconfigurou o Llama para fins militares.

A situação destaca a crescente fragilidade dos softwares de IA de código aberto. Isso também significa que usuários do Facebook, Instagram, WhatsApp e Messenger — alguns dos quais usam o Llama — podem, inadvertidamente, estar contribuindo para programas militares ao redor do mundo.

O que é o Llama?

Llama é uma coleção de grandes modelos de linguagem — semelhante ao ChatGPT — e grandes modelos multimodais que lidam com dados além de texto, como áudio e imagens.

A Meta, empresa-mãe do Facebook, lançou o Llama em resposta ao ChatGPT da OpenAI. A principal diferença entre os dois é que todos os modelos Llama são promovidos como sendo de código aberto e gratuitos. Isso significa que qualquer pessoa pode baixar o código-fonte de um modelo Llama e executá-lo ou modificá-lo (se tiver o hardware adequado). Por outro lado, o ChatGPT só pode ser acessado via OpenAI.

A Open Source Initiative, uma autoridade em definição de software de código aberto, recentemente divulgou um padrão que define o que a IA de código aberto deve contemplar. O padrão apresenta quatro liberdades que um modelo de IA deve conceder para ser classificado como de código aberto:

  • usar o sistema para qualquer propósito e sem precisar de permissão;
  • estudar como o sistema funciona e inspecionar seus componentes;
  • modificar o sistema para qualquer propósito, inclusive para alterar seu output;
  • compartilhar o sistema para que outros o utilizem, com ou sem modificações, para qualquer finalidade.

O Llama da Meta não atende a esses requisitos devido a limitações no uso comercial, atividades proibidas que podem ser consideradas prejudiciais ou ilegais e falta de transparência sobre os dados de treinamento.

Apesar disso, a Meta ainda descreve o Llama como sendo de código aberto.

A interseção entre a indústria de tecnologia e o setor militar

A Meta não é a única empresa de tecnologia a se expandir para aplicações militares de IA. Na semana passada, a Anthropic também anunciou uma parceria com a Palantir — empresa de análise de dados — e com a Amazon Web Services para oferecer acesso aos modelos de IA para agências de inteligência e defesa dos EUA.

A Meta defende sua decisão de permitir que agências de segurança nacional dos EUA e contratantes de defesa usem o Llama. A empresa afirma que esses usos são “responsáveis e éticos” e “apoiam a prosperidade e a segurança dos Estados Unidos”.

A Meta não foi transparente sobre os dados utilizados para treinar o Llama. No entanto, empresas que desenvolvem modelos de IA generativa geralmente utilizam dados de entrada dos usuários para aprimorar seus modelos, e as pessoas compartilham muitas informações pessoais ao usar essas ferramentas.

O ChatGPT e o Dall-E fornecem opções para não permitir a coleta de dados. No entanto, não está claro se o Llama oferece essa opção.

A opção de optar por não participar não é explicitamente informada ao se inscrever nesses serviços, o que coloca a responsabilidade sobre os usuários para se informarem — e muitos podem não estar cientes de onde ou como o Llama está sendo usado.

Por exemplo, a versão mais recente do Llama alimenta ferramentas de IA no Facebook, Instagram, WhatsApp e Messenger. Ao usar as funções de IA nessas plataformas — como criação de reels ou sugestão de legendas — os usuários estão utilizando o Llama.

A fragilidade do código aberto

Os benefícios do código aberto incluem a participação aberta e colaboração no software. No entanto, isso também pode levar a sistemas frágeis que são facilmente manipulados. Por exemplo, após a invasão da Ucrânia pela Rússia em 2022, membros do público fizeram alterações no software de código aberto para expressar apoio à Ucrânia.

Essas alterações incluíam mensagens contra a guerra e exclusão de arquivos de sistema em computadores russos e bielorrussos, um movimento conhecido como “protestware”.

A interseção entre IA de código aberto e aplicações militares provavelmente exacerbará essa fragilidade, pois a robustez do software de código aberto depende da comunidade pública. No caso de grandes modelos de linguagem como o Llama, eles exigem uso e engajamento públicos, pois os modelos são projetados para melhorar ao longo do tempo por meio de um ciclo de feedback entre os usuários e o sistema de IA.

O uso mútuo de ferramentas de IA de código aberto une duas partes — o público e o setor militar — que historicamente possuem necessidades e objetivos distintos. Essa mudança exporá desafios únicos para ambos.

Para o setor militar, o acesso aberto significa que os detalhes de como uma ferramenta de IA opera podem ser facilmente acessados, o que pode levar a problemas de segurança e vulnerabilidade. Para o público em geral, a falta de transparência sobre como os dados dos usuários estão sendo utilizados pelo setor militar pode levar a um sério dilema moral e ético.

Artigos recomendados: Meta e DARPA


Fonte:https://techxplore.com/news/2024-11-meta-military-agencies-access-ai.html    

Nenhum comentário:

Postar um comentário