OpenAI
 

OpenAI signe un accord avec le ministère de la Guerre américain

Frédéric SCHMITT
3 mars 2026 à 23h54

OpenAI, l'entreprise à l'origine de ChatGPT, a conclu un contrat avec le ministère de la Guerre des États-Unis permettant le déploiement de ses systèmes d'intelligence artificielle au sein de réseaux classifiés.

Cet accord, annoncé le 28 février 2026 et amendé le 2 mars, intervient après le refus d'Anthropic de céder à des exigences jugées incompatibles avec ses principes éthiques.

Selon l'annonce officielle publiée sur le site d'OpenAI, l'accord autorise le ministère à utiliser les modèles de l'entreprise « à toutes fins légales, conformément aux lois applicables, aux exigences opérationnelles et aux protocoles de sécurité établis ». Il s'inscrit dans un contexte de tensions entre l'administration Trump et les acteurs de l'IA : le Pentagone avait précédemment écarté Anthropic, qui refusait d'assouplir ses restrictions sur la surveillance de masse domestique et les systèmes d'armes autonomes létaux sans supervision humaine.

OpenAI insiste sur la présence de « garde-fous robustes », présentés comme plus stricts que ceux des accords antérieurs, y compris celui négocié initialement avec Anthropic. Parmi les mesures techniques et contractuelles figurent :

  • Un déploiement exclusivement dans le cloud, sans remise de modèles « sans garde-fous » ni déploiement sur des dispositifs périphériques (edge devices) susceptibles d'être utilisés pour des armes autonomes ;
  • Le maintien intégral de la « safety stack » d'OpenAI, que l'entreprise contrôle entièrement et peut vérifier indépendamment ;
  • La présence d'ingénieurs et de chercheurs en sécurité d'OpenAI habilités au secret défense au sein des équipes du ministère ;
  • Des clauses explicites interdisant l'utilisation intentionnelle des systèmes pour la surveillance de masse des citoyens américains, y compris via l'achat de données commerciales. Cette interdiction a été renforcée le 2 mars à la suite de critiques internes ;
  • L'exclusion des agences de renseignement du ministère (telles que la NSA) sans accord complémentaire ;
  • Le respect des directives existantes, notamment la DoD Directive 3000.09 du 25 janvier 2023, qui impose une validation humaine pour tout usage de la force et des tests rigoureux pour les systèmes semi-autonomes.

Dans un message interne relayé sur X, le PDG Sam Altman a reconnu que la signature initiale, intervenue rapidement après l'éviction d'Anthropic, avait été « précipitée » et donnait « une impression d'opportunisme ». Il a néanmoins défendu la décision, affirmant que l'armée américaine avait besoin des meilleurs outils face aux avancées de concurrents étrangers et que l'accord préservait les « lignes rouges » d'OpenAI : interdiction de la surveillance de masse domestique, responsabilité humaine dans l'usage de la force et refus des décisions automatisées à forts enjeux.

L'annonce a suscité de vives réactions. Une lettre ouverte signée par près d'un millier d'employés d'OpenAI et de Google a dénoncé tout usage pour la « surveillance de masse intérieure » ou l'« élimination autonome ». Plusieurs observateurs soulignent que, malgré les garanties contractuelles, la formulation « toutes fins légales » laisse une marge d'interprétation potentielle, les lois sur la surveillance ayant déjà évolué dans le passé.

Chez les concurrents, Anthropic, qui avait maintenu une position ferme sur l'éthique, voit son modèle Claude plébiscité par une partie du public : les téléchargements de l'application ont fortement augmenté aux États-Unis dans les heures suivant l'annonce. En France et en Europe, où les débats sur l'IA militaire et la souveraineté technologique sont intenses, cet accord relance les interrogations sur la régulation transatlantique des technologies duales.

OpenAI a indiqué souhaiter étendre les mêmes conditions à tous les laboratoires d'IA et a proposé la création d'un groupe de travail réunissant industriels et autorités pour approfondir le dialogue sur la sécurité nationale et la protection des libertés.

!

Pour lire les commentaires et participer, vous devez vous identifier.

Connectez-vous ou devenez membre pour participer et profiter d'autres avantages.