
La start-up d'intelligence artificielle Anthropic a assigné le Département de la Défense américain en justice, dénonçant une campagne de représailles illégales du Pentagone qui la qualifie de risque pour la chaîne d'approvisionnement nationale.
Les origines du conflit
Tout a commencé par un désaccord sur l'utilisation militaire du modèle de langage Claude, développé par Anthropic. La société, dirigée par Dario Amodei, entretient un contrat de 200 millions de dollars avec le Pentagone pour fournir des outils d'IA classifiés. Mais elle refuse un accès "illimité pour tout usage légal", imposant des garde-fous contre les armes autonomes et la surveillance de masse domestique. Le secrétaire à la Défense Pete Hegseth, nommé sous l'administration Trump, a exigé la suppression de ces restrictions, menaçant d'invoquer la loi sur la production de défense.
La riposte du Pentagone
Fin février, après l'échec des négociations, le président Trump a ordonné à toutes les agences fédérales de cesser d'utiliser les technologies Anthropic. Le 4 mars, le Pentagone a formellement désigné l'entreprise comme un "risque pour la chaîne d'approvisionnement", interdisant à ses fournisseurs et partenaires - y compris Amazon, hébergeur d'Anthropic - de collaborer avec elle. Cette mesure rare, habituellement réservée aux adversaires étrangers, prévoit une période de transition de six mois.
Les arguments d'Anthropic en justice
Ce 9 mars, Anthropic a déposé deux plaintes fédérales distinctes. Elle accuse le Pentagone de violer le Premier Amendement (liberté d'expression), l'Administrative Procedure Act et le Due Process. Selon la plainte, cette décision idéologique menace des milliards en contrats et vise à punir l'entreprise pour ses principes éthiques. "Nous n'avons d'autre choix que de contester cette action en cour", a déclaré Amodei.
Le gouvernement américain aurait toutefois utilisé l'IA d'Anthropic pour préparer l'opération Epic Fury contre l'Iran.
De la son côté, OpenAI, concurrent d'Anthropic, a sauté sur l'occasion pour combler le vide en acceptant de collaborer avec le Pentagone. Anthropic, valorisée à des dizaines de milliards, défend son modèle "sûr par conception", au cœur d'un débat sur l'éthique face à la sécurité nationale. L'affaire pourrait s'étendre, impliquant d'autres acteurs de la tech.
Pour lire les commentaires et participer, vous devez vous identifier.
Connectez-vous ou devenez membre pour participer et profiter d'autres avantages.













