Páginas

22 de abr. de 2023

Pentágono visa garantir o controle humano sobre o avanço da tecnologia de IA





NN, 21/04/2023 



Por Devan Markham 



(NewsNation) — À medida que a popularidade da Inteligência Artificial (IA) cresce como uma ferramenta útil em todo o mundo, o Pentágono está tentando acompanhar os aspectos de rápido avanço da IA, de acordo com um relatório exclusivo da Breaking Defense.

O vice-CTO do Pentágono para tecnologias críticas, Maynard Holliday, reconheceu o esforço em uma entrevista ao Breaking Defense, dizendo que o DoD está ciente de que está atrasado nos avanços.

O Exército dos EUA está procurando utilizar IA para aprimorar a estratégia de defesa do país. Ainda assim, tem dúvidas de que a IA pode não ser segura ou confiável, temendo que a tecnologia tome decisões por conta própria, em vez de apenas informar aqueles que a usam, de acordo com um relatório da Fox News.

Garantir o controle humano da IA ​​é o objetivo número um do Pentágono.

Holliday explicou que, se a IA puder se tornar confiável, ela terá um grande potencial para apoiar decisões militares.

A defesa antimísseis e a segurança cibernética, em particular, são áreas em que as ameaças podem se mover rápido demais para que os humanos reajam a tempo”, relatou o Breaking Defense.

Holliday disse que reconhece que a IA será necessária para lutas no futuro, para ajudar a planejar e responder a futuros sistemas de armas e ataques.

Os sistemas de armas que enfrentaremos – hipersônicos, energia direcionada e efeitos cibernéticos – vão se mover mais rápido do que a tomada de decisão humana e, portanto, você terá que ser capaz de reagir na velocidade da máquina para ser adequadamente defendido”, disse Holliday ao Breaking Defense.

Mas para que exatamente o Pentágono usará a IA?

Holliday disse ao Breaking Defense que a IA confiável seria usada como uma ferramenta para ajudar “os formuladores de políticas e comandantes a entender uma massa fervilhante de dados em constante mudança, mas na verdade gerando possíveis cursos de ação - seja reestruturar um contrato de aquisição problemático ou lançar um míssil específico em um alvo prioritário”.

Schuyler Moore, diretor de tecnologia do CENTCOM, disse que os militares pretendem usar IA confiável e controlada por humanos para acessar grandes quantidades de dados em segundos ou minutos para ajudar aqueles que estão no assento de decisão a chegar a uma solução eficaz.

Moore falou com a Fox News, dizendo que “os militares veem a IA como um 'interruptor de luz'” que ajudará sua equipe a entender os dados que recebem e a orientá-los na direção certa sobre como proceder. Ela enfatizou a importância do controle humano sobre a IA e de ter um “humano no circuito” para tomar as decisões finais.

Ajude-nos a tomar uma decisão melhor, não tome a decisão por nós”, disse Moore à Fox News.

A Fox News forneceu um exemplo disso: a IA poderia ser usada para reprimir as remessas de armas ilegais em todo o Irã. Moore explicou que os militares seriam capazes de reduzir o número de remessas suspeitas ao entender o padrão de remessa “normal” sinalizando remessas irregulares, disse o relatório.

A IA também teria a capacidade de identificar imagens rapidamente e interpretar dados mais rapidamente, onde normalmente levaria horas para os humanos analisarem, disse Moore à Fox News.

Você pode imaginar milhares e milhares de horas de feed de vídeo ou imagens que estão sendo capturadas de uma embarcação de superfície não tripulada que normalmente levaria horas e horas e horas para um analista”, explicou Moore à Fox News. “E quando você aplica algoritmos de visão computacional, de repente pode reduzir esse tempo para 45 minutos.

Mas, de acordo com a reportagem da Fox News, o medo é que alguns países estejam ficando “assustadoramente bons” no uso de tecnologia avançada para vigilância ilegal, o que alimentou o desejo do Pentágono de se tornar agressivo para alcançar seus objetivos de IA.

Artigos recomendados: DARPA e PsyOps


Fonte:https://www.newsnationnow.com/us-news/military/pentagon-human-control-ai-technology/amp/ 

Nenhum comentário:

Postar um comentário