Redação Culturize-se
A ascensão meteórica das empresas de inteligência artificial transformou seus executivos em atores geopolíticos improváveis. Poucos exemplos ilustram essa mudança com tanta clareza quanto o conflito crescente entre a startup de IA Anthropic e o governo dos Estados Unidos; uma disputa que agora mistura rivalidade corporativa, segurança nacional e arriscadas manobras políticas.
No centro da controvérsia está o CEO da empresa, Dario Amodei, ex-executivo da OpenAI que deixou a companhia em 2021 ao lado de um grupo de colegas para fundar uma nova empresa de inteligência artificial baseada em forte ênfase em segurança e ética. Nos primeiros anos, Amodei cultivou a imagem de um líder acadêmico reflexivo, frequentemente compartilhando suas ideias com os funcionários e incentivando debates internos sobre as responsabilidades dos desenvolvedores de IA.
Essa cultura de abertura ajudou a moldar a identidade da Anthropic enquanto a empresa evoluía de um pequeno laboratório de pesquisa para um dos protagonistas da corrida global pela inteligência artificial. Impulsionada por bilhões de dólares de investidores e parceiros tecnológicos, a companhia lançou o chatbot Claude, que rapidamente passou a ser utilizado em diversos setores; incluindo órgãos governamentais.
Mas, à medida que a Anthropic cresceu, o peso das palavras e decisões de Amodei também aumentou significativamente. O que antes poderia ser apenas uma discussão interna entre pesquisadores passou a ter impacto equivalente ao de um gesto de diplomacia corporativa.
Essa realidade ficou evidente após o vazamento de um memorando obtido pelo site The Information, no qual Amodei criticava duramente tanto a administração de Donald Trump quanto a rival OpenAI. No documento, ele acusava concorrentes de se alinharem politicamente, ao mesmo tempo em que apresentava a Anthropic como uma das poucas empresas dispostas a manter “linhas vermelhas” éticas firmes.
O memorando rapidamente elevou as tensões com Washington. Trump e o secretário de Defesa Pete Hegseth responderam orientando agências federais a interromper o uso do software da Anthropic e classificando a empresa como um “risco para a cadeia de suprimentos” — designação geralmente reservada a companhias associadas a adversários geopolíticos.
A medida provocou ondas de choque no Vale do Silício, onde executivos passaram a temer que uma disputa de contratação pública tivesse sido elevada ao nível de questão de segurança nacional. Uma coalizão de empresas de tecnologia — incluindo Nvidia, Amazon e Apple — alertou publicamente que tal classificação poderia limitar o acesso do governo a tecnologias domésticas de ponta.
Por trás do drama político está uma disputa mais profunda sobre como a inteligência artificial deve ser utilizada pelos militares.

Amodei tem insistido que a tecnologia da Anthropic não deve ser empregada para vigilância doméstica em massa nem para armas autônomas, como drones letais. Essas restrições tornaram-se um ponto de atrito à medida que as Forças Armadas dos Estados Unidos intensificam experimentos com ferramentas de IA para análise de inteligência e planejamento operacional.
A controvérsia ganhou novo fôlego após relatos de que o sistema Claude teria sido utilizado em análises de alvos militares durante operações recentes, incluindo ataques ligados a conflitos no Oriente Médio.
Alguns comentaristas foram além, sugerindo que sistemas de IA estariam diretamente envolvidos na escolha de alvos de bombardeio. Afirmações que muitos analistas e autoridades de defesa consideram exageradas diante das capacidades atuais da tecnologia.
Especialistas militares enfatizam que ferramentas de IA funcionam principalmente como sistemas de apoio à decisão, e não como comandantes autônomos. Operações de seleção de alvos costumam envolver redes complexas de softwares, analistas e oficiais revisando informações de inteligência antes que qualquer ataque seja autorizado.
Autoridades ressaltam que a supervisão humana continua sendo a autoridade final em qualquer ação militar.
Ainda assim, a percepção de que a inteligência artificial possa influenciar decisões de vida ou morte tem alimentado preocupações públicas e tornado mais complexo o debate político sobre regulamentação.
Nesse sentido, o embate entre Anthropic e Washington reflete uma tensão mais ampla que marca a era da inteligência artificial: como empresas fundadas sob ideais de tecnologia ética lidam com as realidades da geopolítica, dos contratos de defesa e da competição corporativa.
A situação também evidenciou a crescente rivalidade entre Anthropic e OpenAI, cujos líderes adotaram estratégias diferentes de relacionamento com o governo. Enquanto executivos da OpenAI têm buscado proximidade maior com formuladores de políticas públicas, Amodei posiciona sua empresa como uma voz mais cautelosa no uso da IA.
Relatos recentes indicam, contudo, que o impasse pode não ser permanente. Conversas entre a Anthropic e o Pentágono teriam sido retomadas discretamente, sinalizando que ambos os lados reconhecem a importância estratégica da cooperação.
Para Amodei, o episódio representa um ponto de inflexão. Administrar uma startup voltada à pesquisa é muito diferente de comandar uma das empresas de inteligência artificial mais influentes do mundo, onde cada declaração pode desencadear consequências políticas e econômicas.