A Anthropic confirmou nesta quinta-feira (26) que não atenderá ao pedido do Departamento de Defesa dos Estados Unidos para liberar o chatbot Claude para qualquer finalidade militar considerada legal. A recusa ocorre a poucas horas do prazo final imposto pela pasta, marcado para 15h01 (horário local) desta sexta-feira (27).
Ultimato e possíveis sanções
O secretário de Defesa, Pete Hegseth, avisou que, se a empresa não aceitar os termos, poderá ser classificada como “risco da cadeia de suprimentos”. A medida excluiria a Anthropic de contratos governamentais e abriria caminho para a aplicação da Lei de Produção de Defesa (DPA), dispositivo da Guerra Fria que autoriza o presidente a obrigar empresas a atender demandas consideradas vitais para a segurança nacional.
Um alto funcionário do Pentágono disse ao Financial Times que, se necessário, a DPA será usada para forçar o fornecimento da tecnologia. A pasta já contatou grandes contratadas, como Boeing e Lockheed Martin, para avaliar a dependência de produtos da Anthropic.
Posição da empresa
Em comunicado, o CEO Dario Amodei declarou que a companhia “não pode, em sã consciência”, permitir que seus modelos sejam empregados em armas totalmente autônomas ou em vigilância doméstica em massa. “As ameaças do departamento não mudam nosso posicionamento”, escreveu. Ele afirmou ainda que a startup está disposta a colaborar com as Forças Armadas, desde que duas salvaguardas permaneçam: a proibição a armamentos autônomos e a sistemas de vigilância em larga escala.
Argumentos do Pentágono
O porta-voz-chefe do Departamento de Defesa, Sean Parnell, disse que a pasta não pretende usar o Claude para armas autônomas nem para monitoramento em massa de cidadãos, prática que classificou como ilegal. Mesmo assim, defende que o contrato garanta “todos os usos lícitos”, alegando que restringi-los poderia comprometer operações críticas e colocar militares em risco.
Uso anterior em operação na Venezuela
Reportagem do Wall Street Journal aponta que o modelo da Anthropic foi empregado na operação que resultou na captura do presidente venezuelano Nicolás Maduro. Nem a empresa nem o Pentágono comentaram o episódio, e não está claro de que forma a IA teria sido utilizada. A Anthropic proíbe o uso de seus sistemas para atos de violência.
Contratos e concorrência
Em julho de 2025, a Anthropic, Google, OpenAI e xAI receberam um contrato de US$ 200 milhões para desenvolver soluções de IA de defesa. Segundo analistas, rivais já concordaram em permitir qualquer aplicação legal, o que reduz o poder de negociação da Anthropic.
Imagem: Ascannio
Preocupação de especialistas
Para Geoffrey Gertz, do Center for a New American Security, o recurso à DPA contra uma empresa de IA seria inédito e pode prejudicar seu avanço tecnológico. Já Amos Toh, do Brennan Center da Universidade de Nova York, avalia que a velocidade da adoção militar de IA exige maior supervisão legislativa.
Fundada em 2021 por ex-funcionários da OpenAI, a Anthropic se apresenta como voltada à segurança. Em ensaio recente, Amodei alertou que o risco de mau uso da IA é maior em 2026 do que em 2023, defendendo gestão “realista e pragmática” dos perigos.
Com o prazo do Pentágono se aproximando, a startup segue irredutível quanto às salvaguardas que considera essenciais para o uso responsável de sua tecnologia.
Com informações de Olhar Digital
