Le géant de l’IA Anthropic a résisté aux pressions de Hegseth (contrairement à OpenAI)
Dans ce qui constitue actuellement l’actualité la plus marquante du monde de l’IA, le « Département de la Guerre » de Pete Hegseth fait pression sur les entreprises du secteur pour qu’elles accordent au gouvernement et à l’armée américains un accès illimité à leurs programmes à des fins de sécurité.
Le géant de l’IA Anthropic a résisté aux pressions de Hegseth, mais OpenAI, dirigé par Sam Altman, a signé sans hésiter. Hegseth utilise diverses stratégies pour forcer la main à ces entreprises technologiques, et l’une après l’autre, elles cèdent.
Aujourd’hui, Donald Trump a ordonné au gouvernement américain de cesser d’utiliser tous les produits d’Anthropic et « encourage » le passage aux logiciels d’OpenAI.
Les géants de la tech menaçants
Pete Hegseth et le gouvernement américain recourent à diverses stratégies pour faire plier ces géants de l’IA, notamment en leur interdisant d’exercer leurs activités aux États-Unis.
Actuellement, Anthropic applique des restrictions très strictes qui interdisent l’utilisation de ses modèles d’IA à des fins de surveillance de masse ou leur intégration dans des armes autonomes létales, capables de prendre la décision d’attaquer sans intervention humaine.
Ce sont ces restrictions que les États-Unis souhaitent voir supprimées. Hegseth a commencé par menacer d’annuler le contrat de 200 millions de dollars avec le ministère de la Défense, puis il est passé à la vitesse supérieure.
De nouvelles menaces de la part de Hegseth
Hegseth a menacé de qualifier Anthropic de « risque pour la chaîne d’approvisionnement » si l’entreprise ne levait pas ces restrictions avant le 28 février (date limite désormais dépassée).
Si cette qualification était appliquée à Anthropic, aucune entreprise travaillant avec le ministère de la Défense ne serait autorisée à utiliser les logiciels d’Anthropic.
Cette menace mettrait effectivement un terme à la croissance fulgurante d’Anthropic au cours des 18 derniers mois. Anthropic est évaluée à un peu moins de 400 milliards de dollars et détient le modèle d’IA Claude.
Qu'est-ce que l'IA anthropique ?
Anthropic AI a été fondée en 2021 par plusieurs anciens employés d’OpenAI. Avec une équipe de seulement sept personnes, Anthropic a développé son modèle d’IA Claude en à peine un an, et Claude 1 a été lancé en mars 2023.
Après un investissement initial d’un milliard de dollars de la part de Google en 2021, Anthropic a accumulé une fortune inimaginable en moins de cinq ans, profitant pleinement de l’essor de l’IA en 2025. En 2024, Databricks a annoncé que Claude serait intégré à son logiciel, marquant ainsi une avancée majeure pour Anthropic.
Deux ans plus tard, Anthropic est évaluée à près de trois fois la valeur de Databricks, une entreprise qui existe depuis près de dix ans de plus qu’elle.
OpenAI cède à la pression, commente Altman
OpenAI, le créateur de ChatGPT, s’est retrouvé confronté aux mêmes conditions qu’Anthropic, mais a choisi de céder aux pressions du gouvernement. Sam Altman a déclaré avoir été « poussé » à conclure l’accord le 28 février et a publié une explication sur X.
Altman a affirmé qu’il « n’aurait pas dû se précipiter » pour signer le contrat du DoW et que toute cette expérience avait été « une leçon » pour le PDG milliardaire.
Sam Altman pèse près de 4 milliards de dollars.
Selon Altman, il essayait d’éviter une « issue bien pire », et lorsque ses tentatives pour désamorcer les discussions ont échoué, il a choisi de signer un contrat risqué plutôt que de faire courir un risque financier à ses actionnaires.
Les excuses d'Altman
Altman a qualifié la situation de « très compliquée » et a également exposé les détails de son contrat avec DoW, la société de Hegseth. Selon Altman, celui-ci interdit notamment l’utilisation intentionnelle du système d’IA à des fins de surveillance intérieure de personnes et de ressortissants américains.
Altman a également affirmé que cet accord restreint le suivi ou la surveillance délibérée d’individus, y compris par le biais d’informations personnelles obtenues à des fins commerciales, et a confirmé qu’il ne serait pas utilisé par les agences de renseignement du DoW. On ignore si le DoW respectera le contrat, mais celui-ci prévoit au moins certaines restrictions.
Altman prend la défense d'OpenAI
Altman a immédiatement essuyé de vives critiques pour avoir cédé aux pressions du gouvernement, mais il s’est défendu dans une autre déclaration. Altman affirme que des « responsables non élus » ne devraient pas décider de la manière dont le gouvernement doit utiliser la technologie.
Il a également déclaré qu’il ne souhaitait pas qu’OpenAI décide de la marche à suivre en cas d’urgence aux États-Unis, notamment en cas d’attaque nucléaire.
Altman estime que les experts en IA ne sont pas en mesure de prendre des décisions concernant leurs propres logiciels, préférant faire confiance au gouvernement américain. Le gouvernement américain a repris le même argument contre Anthropic, mais en vain.
Si Hegseth s’engage et qualifie Anthropic de risque pour la chaîne d’approvisionnement, ce serait la première fois qu’une entreprise américaine se verrait attribuer cette désignation, et cela créerait un dangereux précédent d’ingérence excessive du gouvernement américain dans le secteur privé.