Sáb. Mai 2nd, 2026

WASHINGTON (Reuters) – O Pentágono disse na sexta-feira que chegou a acordos com sete empresas de tecnologia para usar inteligência artificial em suas redes de computadores confidenciais.

Google, Microsoft, Amazon Web Services, Nvidia, OpenAI, Reflection e SpaceX contribuirão com seus recursos para ajudar a “melhorar as decisões dos combatentes em ambientes operacionais complexos”, disse o Departamento de Defesa.

Notavelmente, a empresa de IA Anthropic desapareceu da lista após uma briga pública e uma batalha legal com a administração Trump sobre a ética e a segurança do uso de IA na guerra.

O Departamento de Defesa tem acelerado rapidamente o uso de IA nos últimos anos. De acordo com um relatório de março do Brennan Center for Justice, a tecnologia poderia ajudar os militares a reduzir o tempo necessário para identificar e atacar alvos no campo de batalha, ao mesmo tempo que ajuda na organização da manutenção de armas e nas linhas de abastecimento.

Mas a IA já levantou preocupações de que a sua utilização pudesse invadir a privacidade dos americanos ou permitir que as máquinas escolhessem alvos no campo de batalha. Uma das empresas contratadas pelo Pentágono afirmou que o seu contrato exige supervisão humana em determinadas situações.


Foram levantadas preocupações sobre o uso militar da IA ​​na guerra de Israel contra militantes em Gaza e no Líbano, com os gigantes da tecnologia dos EUA capacitando discretamente Israel para rastrear alvos. Mas o número de civis mortos também disparou, alimentando receios de que os dispositivos tenham causado mortes inocentes.

Questões sobre o uso militar da IA ​​ainda estão sendo resolvidas
Helen Toner, diretora executiva interina do Centro de Segurança e Tecnologia Emergente da Universidade de Georgetown, disse que os últimos contratos do Pentágono surgem num momento de preocupação sobre o potencial de dependência excessiva da tecnologia do campo de batalha. “Grande parte da guerra moderna baseia-se em pessoas sentadas em centros de comando atrás de monitores, tomando decisões complexas sobre situações confusas e rápidas”, disse Toner, ex-membro do conselho da OpenAI. “Os sistemas de IA podem ser úteis para resumir informações, observar feeds de vigilância ou tentar identificar alvos potenciais”.

Mas questões sobre níveis apropriados de intervenção humana, risco e formação ainda estão a ser resolvidas, disse ela.

“Como desenvolver rapidamente essas ferramentas para serem eficazes e gerar benefícios estratégicos?” Toner perguntou: “Você precisa treinar os operadores e garantir que eles saibam como usá-los e não confiem demais neles?”

Tais preocupações foram levantadas pela Anthropic. A empresa de tecnologia disse que queria garantias no acordo de que os militares não usariam sua tecnologia em armas totalmente autônomas e na vigilância dos americanos. O secretário de Defesa, Pete Hegseth, disse que a empresa deveria ter permissão para qualquer uso que o Pentágono considerasse legítimo.

A ação da Anthropic a tribunal ocorre depois que o presidente republicano Donald Trump tentou impedir que todas as agências federais usassem o chatbot da empresa, Claude.

A OpenAI anunciou um acordo com o Pentágono em março para substituir efetivamente o Antrópico pelo ChatGPT em um ambiente classificado. A OpenAI confirmou em comunicado na sexta-feira que este é o mesmo acordo anunciado no início de março.

“Como dissemos quando anunciámos o acordo há alguns meses, acreditamos que as pessoas que defendem os Estados Unidos deveriam ter os melhores equipamentos do mundo”, afirmou a empresa.

O contrato de uma empresa com o Pentágono inclui linguagem que diz que os sistemas de IA devem ter supervisão humana em qualquer missão que operem de forma autônoma ou semiautônoma, de acordo com uma pessoa não autorizada a falar publicamente sobre o contrato. A linguagem também afirma que as ferramentas de IA devem ser utilizadas de forma consistente com os direitos constitucionais e as liberdades civis.

A OpenAI disse anteriormente que garantiu garantias semelhantes quando fechou seu próprio acordo com o Pentágono, mas elas se assemelham aos pontos críticos da Antrópico.

Depender de apenas uma empresa seria irresponsável, disse Emil Michael, diretor de tecnologia do Pentágono, à CNBC na sexta-feira, um reconhecimento do conflito com a Antrópico.

“Quando percebemos que um parceiro não queria trabalhar conosco da maneira que queríamos trabalhar com ele, saímos e garantimos que tínhamos vários fornecedores diferentes”, disse Michael.

Algumas empresas, incluindo a Amazon e a Microsoft, trabalham há muito tempo com os militares num ambiente confidencial, e não ficou imediatamente claro se os novos contratos alteraram significativamente o seu envolvimento governamental. A fabricante de chips Nvidia e empresas como a startup Reflection são novas nesse tipo de trabalho. Ambas as empresas estão a construir modelos de IA de código aberto, que Michael descreveu como uma prioridade para fornecer uma “alternativa americana” ao rápido desenvolvimento de sistemas de IA na China, tornando alguns componentes-chave publicamente acessíveis para outros construírem.

O Pentágono disse na sexta-feira que militares já estão usando recursos de IA por meio de sua plataforma oficial, GenAI.mil.

“Os combatentes, civis e empreiteiros estão agora a colocar estas capacidades em uso prático, reduzindo muitas tarefas de meses para dias”, disse o Pentágono, acrescentando que as crescentes capacidades de IA dos militares “darão aos combatentes as ferramentas de que necessitam para operar com confiança e proteger a nação contra qualquer ameaça”.

Em muitos casos, os militares usam a inteligência artificial como os civis: para assumir tarefas mecânicas que levariam horas ou dias aos humanos, disse Toner, da Universidade de Georgetown.

Eles disseram que a IA poderia ser usada para prever melhor quando um helicóptero precisa de manutenção ou para aprender como movimentar com eficiência grandes quantidades de tropas e equipamentos. Também pode ajudar a determinar se os veículos no feed de vigilância do drone são civis ou militares.

Mas as pessoas não deveriam confiar muito nisso.

“Existe um fenômeno chamado preconceito de automação, onde as pessoas podem presumir que as máquinas terão um desempenho melhor do que realmente fazem”, disse Toner.

Fonte da notícia

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *