Páginas

9 de nov. de 2024

A Startup de IA Anthropic, que Sempre Fala Sobre Como É Ética, Acabou de Fazer Parceria com a Palantir




TB, 08/11/2024 



Por Victor Tangermann



Segurança em Terceiro Lugar

Anthropic, a empresa de IA que se apresenta como uma alternativa focada em segurança em relação a outras empresas de IA, como a OpenAI — da qual recrutou muitos executivos — fez parceria com a obscura contratante de defesa Palantir.

A empresa de IA também está se unindo à Amazon Web Services para levar seu chatbot de IA, Claude, às agências de inteligência e defesa dos EUA, uma aliança que parece contradizer a alegação da Anthropic de priorizar "segurança nas fronteiras da tecnologia".

Segundo um comunicado de imprensa, a parceria apoia o complexo militar-industrial dos EUA ao "processar rapidamente grandes quantidades de dados complexos, aumentar insights orientados por dados, identificar padrões e tendências de maneira mais eficaz, simplificar a revisão e preparação de documentos e ajudar autoridades dos EUA a tomar decisões mais informadas em situações sensíveis ao tempo."

A situação é especialmente peculiar considerando que chatbots de IA já ganharam a reputação de vazar informações sensíveis e "alucinar" fatos.

"A Palantir tem orgulho de ser a primeira parceira do setor a levar os modelos Claude para ambientes classificados," disse o CTO da Palantir, Shyam Sankar, em um comunicado.

"Isso melhorará drasticamente a análise de inteligência e permitirá que autoridades tomem decisões com mais eficiência, simplificando tarefas intensivas em recursos e aumentando a eficiência operacional em diversos departamentos," acrescentou a chefe de vendas da Anthropic, Kate Earle Jensen.

Acesso Completo

Tecnicamente, a Anthropic permite que suas ferramentas de IA sejam usadas para "identificar campanhas de influência ou sabotagem encobertas", ou "emitir avisos prévios de atividades militares potenciais", de acordo com os termos de serviço recentemente ampliados.

Desde junho, os termos de serviço passaram a incluir exceções contratuais para usos militares e de inteligência, como aponta o TechCrunch.

A mais recente parceria permite que Claude tenha acesso a informações classificadas no nível “Impacto 6” (IL6) da Palantir, um nível abaixo de "top secret" no Departamento de Defesa, segundo o TechCrunch. Qualquer dado classificado como IL6 pode conter informações cruciais para a segurança nacional.

Em outras palavras, Anthropic e Palantir podem não ter entregue ao chatbot de IA os códigos nucleares — mas ele agora terá acesso a informações altamente sensíveis.

Isso também coloca a Anthropic em uma companhia eticamente questionável. Para ilustrar, a Palantir garantiu um contrato de $480 milhões com o Exército dos EUA, para desenvolver um sistema de identificação de alvos com IA chamado Maven Smart System no início deste ano. O projeto Maven, de maneira geral, já se mostrou incrivelmente controverso no setor de tecnologia.

Contudo, ainda resta ver como um chatbot de IA que alucina se encaixa nisso tudo. Será que a Anthropic está simplesmente seguindo o dinheiro enquanto se prepara para levantar fundos suficientes para garantir uma avaliação de US$ 40 bilhões?

É uma parceria preocupante que evidencia os laços crescentes da indústria de IA com o complexo militar-industrial dos EUA, uma tendência alarmante que deveria soar todos os tipos de alerta, especialmente considerando as muitas falhas inerentes da tecnologia — e ainda mais quando vidas podem estar em jogo.

Artigos recomendados: Palantir e Claude


Fonte:https://futurism.com/the-byte/ethical-ai-anthropic-palantir 

Nenhum comentário:

Postar um comentário