A disputa entre a Anthropic e o Pentágono gira em torno do acesso ético à inteligência artificial de ponta BBC News fonte Getty ImagesA disputa entre a Ant A disputa entre a Anthropic e o Pentágono gira em torno do acesso ético à inteligência artificial de ponta BBC News fonte Getty ImagesA disputa entre a Ant

A empresa de IA que enfrentou o Pentágono nos EUA — e por que isso afeta o mundo todo

2026/03/19 18:45
Leu 14 min
Para enviar feedbacks ou expressar preocupações a respeito deste conteúdo, contate-nos em [email protected]
A disputa entre a Anthropic e o Pentágono gira em torno do acesso ético à inteligência artificial de ponta — Foto: BBC News fonte A disputa entre a Anthropic e o Pentágono gira em torno do acesso ético à inteligência artificial de ponta — Foto: BBC News fonte

Enquanto o mundo observava a operação dos EUA na Venezuela e como a guerra com o Irã se tornava inevitável, uma batalha se desenhava em Washington — um alerta de que o futuro profetizado por anos, sobre o papel da inteligência artificial nas guerras, já havia chegado.

Uma empresa de inteligência artificial do Vale do Silício se recusou a seguir ordens do Pentágono (o departamento de Defesa dos EUA). E o Pentágono a tratou como se fosse inimiga do Estado. Mesmo assim, sua tecnologia de IA continuou sendo usada porque as Forças Armadas dos EUA não podiam se dar ao luxo de ficar sem ela.

Continuar lendo

Foi o que aconteceu entre a Anthropic e o departamento de Defesa nas últimas semanas. E embora tudo pareça uma mera disputa corporativa, é muito mais do que isso. É a primeira vez que uma empresa de IA confronta um aparato militar, recusando-se a eliminar limites éticos de sua tecnologia.

O confronto deixou no ar questões que preocupam a todos: até que ponto os humanos já estão delegando decisões irreversíveis e letais a máquinas? Quem decide como a IA é usada?

Essas não são perguntas retóricas. Especialistas da Universidade de Oxford alertam que este episódio "revela lacunas de governança antigas na integração da IA ​​em operações militares. Essas lacunas são anteriores neste governo (dos EUA) e persistirão após a controvérsia atual".

Por que — se a humanidade teme chegar a este ponto há tanto tempo — ainda existe um vácuo tão grande na governança da IA? É um vácuo que Logan Graham, líder da Equipe Vermelha da Anthropic, que analisa cenários negativos envolvendo tecnologia — de ataques cibernéticos a ameaças à biossegurança — conhece muito bem.

"A intuição de algumas pessoas, por terem crescido em um mundo pacífico, é de que em algum lugar existe uma sala cheia de adultos que sabem como resolver tudo", disse ele à revista Time. "Não existem esses grupos de adultos. Não existe nem mesmo uma sala. A responsabilidade é sua."

Pergunta difícil

Em algum momento durante a operação que culminou em 3 de janeiro com a captura do então presidente venezuelano Nicolás Maduro, a ferramenta Claude, da Anthropic, foi usada para processar dados e auxiliar na tomada de decisões.

Essa informação foi divulgada independentemente pelo Wall Street Journal e pelo site Axios, citando fontes com conhecimento direto dos eventos, e posteriormente confirmada pela revista Time, que publicou um extenso perfil da Anthropic, a empresa sediada em San Francisco que criou o Claude.

Nem o departamento de Defesa nem a Anthropic confirmaram oficialmente essa informação. Mas o que aconteceu em seguida está documentado e é muito mais revelador do que o próprio evento.

A operação para capturar Nicolás Maduro foi o estopim da disputa envolvendo a Antrhopic — Foto: BBC News fonte A operação para capturar Nicolás Maduro foi o estopim da disputa envolvendo a Antrhopic — Foto: BBC News fonte

Após a captura de Maduro, um executivo da Anthropic contatou a Palantir — a empresa de análise de dados que atua como intermediária tecnológica entre o Vale do Silício e o governo dos EUA — e perguntou: nosso software foi usado nessa operação?

A pergunta fez soar um alarme em Washington. Emil Michael, Subsecretário de Defesa e Diretor de Tecnologia do Pentágono, disse que isso gerou profunda preocupação: será que a Anthropic, em um conflito futuro, poderia "desligar seu modelo no meio de uma operação" — ativar algum mecanismo de rejeição — "e colocar vidas em risco"?

A Anthropic contesta essa interpretação: a empresa afirma que nunca tentou limitar o uso do Pentágono em nenhum caso específico e que a pergunta era rotineira.

Mas em seguida, houve uma rápida escalada de tensões.

O Pentágono exigiu que a Anthropic concedesse acesso irrestrito à sua tecnologia para "todos os usos legais". A Anthropic recusou. Pete Hegseth, Secretário de Defesa de Trump, classificou a Anthropic como um "risco para a cadeia de suprimentos", um rótulo historicamente reservado para empresas ligadas a rivais estrangeiros como a Huawei ou a Kaspersky, e não para empresas americanas que simplesmente discordam do governo.

A Anthropic processou o Pentágono por exceder sua autoridade e salvaguardas éticas, violando direitos fundamentais. Vários especialistas jurídicos acreditam que a empresa tem grandes chances de vencer a dispta jurídica.

O presidente Donald Trump, por sua vez, ordenou que todas as agências federais parassem de usar a tecnologia da Anthropic. E coroou a controvérsia com uma mensagem na plataforma Truth Social, escrita inteiramente em letras maiúsculas: "Os EUA jamais permitirão que uma empresa progressista ('woke') e radical de esquerda dite como nossas grandes forças armadas lutam e vencem guerras."

Em seu vocabulário e no de seus seguidores, "woke" é o maior dos insultos, um rótulo depreciativo para descrever ideias ou políticas progressistas relacionadas à identidade de gênero, desigualdade ou justiça social.

Linhas vermelhas

A Anthropic tem uma história singular.

Foi fundada em 2021 por ex-pesquisadores da OpenAI com a premissa explícita de que a inteligência artificial representa um dos maiores riscos existenciais para a humanidade e que, precisamente por essa razão, é fundamental que aqueles que a desenvolvem sejam pessoas comprometidas em fazê-lo com segurança.

Dario Amodei, cofundador e CEO da Anthropic, foi vice-presidente de pesquisa da OpenAI — Foto: BBC News fonte Dario Amodei, cofundador e CEO da Anthropic, foi vice-presidente de pesquisa da OpenAI — Foto: BBC News fonte

Em julho de 2025, a Anthropic assinou um contrato de US$ 200 milhões com o Departamento de Defesa, o primeiro desse tipo: um laboratório de IA que integra seus modelos em fluxos de trabalho de missão em redes classificadas.

O CEO da Anthropic, Dario Amodei, justificou isso em um texto publicado em janeiro deste ano. Ele escreveu que a Anthropic apoiava as forças militares e de inteligência dos EUA porque "a única maneira de responder a ameaças autocráticas é igualá-las e superá-las militarmente".

Ele acrescentou: "A formulação a que cheguei é que devemos usar IA para a defesa nacional em todas as suas formas, exceto aquelas que nos tornariam mais parecidos com nossos adversários autocráticos".

Consequentemente, o contrato com o Pentágono estabeleceu duas "linhas vermelhas": o Claude não poderia ser usado para vigilância doméstica em massa ou para armas totalmente autônomas.

Esses limites invioláveis ​​não são arbitrários; eles se baseiam em um documento da empresa que serve como sua "alma". Seu objetivo declarado é "prevenir catástrofes em larga escala", incluindo a possibilidade de a IA ser usada por um grupo humano para "tomar o poder de forma ilegítima e não colaborativa".

Amodei também argumentou perante o Pentágono que "os sistemas de IA de última geração simplesmente não são confiáveis ​​o suficiente para alimentar armas totalmente autônomas".

Neste contexto, não se trata de armas que decidem por conta própria a quem matar. "Autonomia" significa que um sistema pode atingir certos objetivos sozinho — ou com supervisão humana mínima — em ambientes complexos.

Mas existem sistemas automatizados que ajudam a tomar decisões sobre ataques. Especialistas em inteligência artificial alertam para um problema conhecido como "viés de automação": quando as regras de uso são vagas, os humanos tendem a confiar nas recomendações da máquina mais do que deveriam.

A IA não substitui o julgamento humano de uma vez: ela o corrói aos poucos, até que o operador pare de questioná-lo. Em uma situação tensa, se o sistema — que você sabe que analisou uma imensa quantidade de informações — aponta para alguns pixels na tela como um alvo urgente, é fácil aceitar sua recomendação sem muita hesitação.

Ou se um sistema de reconhecimento facial identifica alguém em uma multidão, um agente de segurança provavelmente confiará no resultado e procederá com a prisão.

Existem precedentes concretos: em diversas ocasiões documentadas, vários departamentos de polícia nos EUA acabaram prendendo pessoas erradas.

Isso coincide com a outra linha vermelha que enfureceu o governo Trump: a vigilância em massa, que afeta o cotidiano de pessoas que não estão em nenhuma zona de guerra.

Cabe ressaltar que a Anthropic se opôs especificamente à vigilância em massa de cidadãos americanos. Sua posição não é universalista. Mas o princípio por trás dela tem um alcance mais amplo. E ganha urgência porque, paralelamente a esse conflito, o governo dos EUA anunciou planos para usar IA por meio da Palantir para apoiar as operações do ICE — a agência de imigração — rastreando a localização em tempo real e o histórico financeiro de pessoas sem documentos.

A agência americana ICE busca aplicar inteligência artificial em operações de rastreamento de imigrantes — Foto: BBC News fonte A agência americana ICE busca aplicar inteligência artificial em operações de rastreamento de imigrantes — Foto: BBC News fonte

A vigilância em massa, em diferentes graus e em diversas populações, já existe. A questão não é mais se ela ocorre, mas sim quantos controles ainda existem sobre como ela é usada.

Nesse contexto, as "linhas vermelhas" da Anthropic não são apenas filosofia corporativa: são, por ora, um dos poucos mecanismos concretos de controle e equilíbrio existentes.

O problema é que as restrições são tão fortes quanto o mecanismo que as impõe.

E quando o Pentágono rejeitou esses limites e exigiu acesso irrestrito, a Anthropic se viu sozinha para manter sua posição, sem um arcabouço legal para apoiá-la e sem regulamentação internacional para protegê-la, tendo apenas suas cláusulas contratuais como escudo.

O que é considerado legal?

A relutância do departamento de Defesa em permitir que uma empresa privada imponha limites é, para muitos, justificada.

Embora as recentes operações militares em cidades dos EUA, na Venezuela e no Irã tenham sido conduzidas com mínima consulta ao Congresso, o uso de IA é tão crucial que deveria ser regulamentado por leis aprovadas por representantes democraticamente eleitos, argumentam alguns.

Mas o Legislativo ainda não aprovou leis sobre o assunto. Assim, a exigência do Pentágono pela liberdade de usar o Claude para "todos os usos lícitos" parece razoável até que se questione o que, exatamente, é lícito nesse contexto.

Não há uma definição consensual no direito internacional sobre o que constitui uma arma autônoma letal. O direito internacional humanitário — as normas que regem os conflitos armados desde as Convenções de Genebra — foi construído em torno de decisões humanas: um soldado apertando o gatilho e um comandante dando uma ordem.

Esses marcos não contemplam sistemas que detectam, selecionam e eliminam alvos com mínima ou nenhuma intervenção humana direta. É o que os especialistas chamam de "vácuo de responsabilidade": uma deficiência crítica em que as estruturas legais existentes não conseguem determinar quem é o responsável quando um sistema autônomo comete uma violação.

Se um drone com inteligência artificial matar civis, quem será responsabilizado? O programador? O comandante? A empresa que fabricou o sistema? O direito internacional não oferece uma resposta clara. E, na ausência de resposta, "uso lícito" significa, na prática, o que cada Estado decidir que significa.

Peter Hegseth fez críticas à Anthropic — Foto: BBC News fonte Peter Hegseth fez críticas à Anthropic — Foto: BBC News fonte

Nesse contexto, surge uma questão delicada: essa discussão está sendo a feita no tempo certo? A resposta talvez seja: não oportuna o suficiente para ser preventiva; mas ainda assim, sim, oportuna o suficiente para ser útil.

O debate formal sobre armas autônomas começou em 2013. Onze anos depois, o resultado são diretrizes voluntárias. Em 2024, durante uma conferência internacional em Viena, o Ministro das Relações Exteriores da Áustria incentivou o progresso com uma declaração inquietante: "Este é o momento Oppenheimer da nossa geração".

Ele se referia ao momento em que a humanidade tomou consciência do poder destrutivo da bomba atômica: como naquela ocasião, a tecnologia já existe, e agora é preciso decidir como controlá-la.

Só que, diferentemente das armas nucleares — caras, escassas e com uma marca inconfundível —, os sistemas autônomos são baratos, produzidos em massa e difíceis de rastrear. Portanto, são estruturalmente mais difíceis de controlar por meio de tratados.

Naquele mesmo ano de 2024, a Assembleia Geral da ONU adotou uma resolução criando um fórum, sob supervisão das Nações Unidas, para discutir os desafios e preocupações com o uso de armas autônomas e o que fazer sobre isso, com 166 votos a favor. Apenas três países votaram contra: Rússia, Coreia do Norte e Belarus.

O voto mostra que a preocupação é quase universal. O que falta é um tratado vinculativo e mecanismos de aplicação, algo que o Secretário-Geral da ONU, António Guterres, vem defendendo há alguns anos. Alguns especialistas, no entanto, temem que, como aconteceu com outras armas, tal tratado só seja firmado após uma catástrofe.

A lógica da velocidade

Enquanto advogados e diplomatas debatem, engenheiros constroem. E o que eles constroem já está sendo usado.

O general americano Stanley McChrystal, ex-comandante das forças americanas e da Otan no Afeganistão, certa vez resumiu isso de forma contundente: nunca antes na história alguém foi capaz de ver, decidir e matar uma pessoa do outro lado do mundo em questão de minutos.

Essa afirmação agora precisa ser atualizada. A questão não é mais apenas ver, decidir e matar, mas até que ponto estamos dispostos a delegar a decisão a uma máquina.

Essa transição já está sendo testada no campo de batalha. Na Ucrânia, em dezembro de 2024, as forças do país realizaram a primeira operação totalmente não tripulada perto de Kharkiv: dezenas de veículos terrestres autônomos e drones atacaram posições russas sem nenhum soldado em terra.

A lógica tática é esclarecedora. Os operadores lançam os drones e veículos autônomos sabendo que a comunicação com eles será bloqueada em poucos minutos. O sucesso depende de quão bem eles são programados para agir autonomamente quando isso acontecer.

Eles navegam de forma independente, evitam interferências eletrônicas e continuam a missão mesmo sem supervisão humana. Isso não é um detalhe insignificante: os drones já causam entre 70% e 80% das vítimas nessa guerra, de acordo com estimativas da inteligência europeia.

Assim que a Anthropic perdeu o contrato, sua rival OpenAI surgiu como alternativa — Foto: BBC News fonte Assim que a Anthropic perdeu o contrato, sua rival OpenAI surgiu como alternativa — Foto: BBC News fonte

Na região do Golfo, a tendência aponta na mesma direção.

O almirante Brad Cooper, chefe do Comando Central dos EUA, reconheceu que a inteligência artificial é uma ferramenta fundamental para a identificação de alvos, permitindo que os EUA "analisem vastas quantidades de dados em segundos, para que nossos líderes possam tomar decisões mais inteligentes e mais rápidas do que o inimigo".

Acordo com o OpenAI

A história tem um final paradoxal. Dario Amodei declarou, referindo-se às exigências do Pentágono: "Não podemos, em sã consciência, atender ao pedido deles." A Anthropic perdeu o contrato.

Horas depois do anúncio, a OpenAI chegou a um acordo com o Departamento de Defesa.

E então algo inesperado aconteceu. No dia seguinte ao anúncio do novo acordo pelo Pentágono, o aplicativo Claude ultrapassou o ChatGPT da OpenAI na App Store da Apple pela primeira vez na história.

Naquela semana, mais de um milhão de pessoas se cadastraram no Claude todos os dias, impulsionando-o ao primeiro lugar em mais de 20 países. As vendas da empresa dispararam entre o público em geral.

E tem mais. Duas coalizões de trabalhadores da Amazon, Google, Microsoft e OpenAI pediram publicamente que suas empresas seguissem o exemplo da Anthropic.

Dezenas de cientistas e pesquisadores de empresas concorrentes assinaram um parecer jurídico em apoio à Anthropic. Um general aposentado da Força Aérea, que liderou o Projeto Maven — o controverso programa de drones com IA que provocou protestos massivos de funcionários do Google em 2018 até a empresa abandonar o contrato — escreveu nas redes sociais que, embora se esperasse que ele apoiasse o Pentágono, simpatizava mais com a posição da Anthropic.

E talvez igualmente importante: a Anthropic consolidou o apoio de seus próprios engenheiros, alguns dos profissionais mais requisitados do Vale do Silício, em um dos mercados de talentos mais competitivos do planeta, onde contratos para atrair ou reter esses indivíduos podem valer dezenas de milhões de dólares.

  • As previsões sobre inteligência artificial de 70 anos atrás que são realidade hoje
  • 'Empresas de IA não têm plano de negócios nem substância real para sustentar seu valor'
  • 'AI Slop': o conteúdo 'tosco' gerado por inteligência artificial que tomou conta das redes sociais - e a reação contrária da internet
Mais recente Próxima O OpenClaw vai popularizar os agentes da mesma maneira que o ChatGPT popularizou a IA generativa
Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail [email protected] para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.