Dans l'actualité la plus importante du monde de l'IA à l'heure actuelle, le département de la Guerre de Pete Hegseth fait pression sur les entreprises d'IA pour qu'elles autorisent le gouvernement et l'armée américains à accéder sans restriction à leurs programmes à des fins de sécurité. La superpuissance de l'IA Anthropic a résisté à la pression de Hegseth, mais OpenAI, dirigée par Sam Altman, a signé sans hésiter. Hegseth utilise diverses stratégies pour forcer la main à ces entreprises technologiques, qui cèdent les unes après les autres. Donald Trump a désormais ordonné au gouvernement américain de cesser d'utiliser tous les produits Anthropic et « encourage » le passage aux logiciels OpenAI.
Menacer les géants de la technologie
Pete Hegseth et le gouvernement américain utilisent diverses stratégies pour faire pression sur ces géants de l'IA, notamment en leur interdisant d'opérer aux États-Unis. Actuellement, Anthropic impose des restrictions strictes qui interdisent l'utilisation de ses modèles d'IA à des fins de surveillance de masse ou leur intégration dans des armes autonomes létales, afin qu'ils puissent prendre des décisions d'attaque sans intervention humaine. Ce sont ces restrictions que les États-Unis souhaitent voir supprimées. Hegseth a commencé par menacer d'annuler le contrat de 200 millions de dollars avec le ministère de la Guerre, puis il est passé à la vitesse supérieure.

Hegseth a menacé Anthropic de qualifier l'entreprise de « risque pour la chaîne d'approvisionnement » si elle ne levait pas ces restrictions avant le 28 février (date limite désormais dépassée). Si Anthropic était ainsi qualifiée, aucune entreprise travaillant avec le ministère de la Guerre ne serait autorisée à utiliser ses logiciels. Cette menace mettrait effectivement fin à la croissance fulgurante d'Anthropic au cours des 18 derniers mois. Anthropic est évaluée à un peu moins de 400 milliards de dollars et possède le modèle d'IA Claude.
Qu'est-ce que l'IA Anthropic ?
Anthropic AI a été fondée en 2021 par plusieurs anciens employés d'OpenAI. Avec une équipe de seulement sept personnes, Anthropic a développé son modèle d'IA Claude en seulement un an, et Claude 1 a été lancé en mars 2023. Après un investissement initial de 1 milliard de dollars de Google en 2021, Anthropic a accumulé une richesse inimaginable en moins de cinq ans, profitant du boom de l'IA en 2025. En 2024, Databricks a annoncé que Claude serait intégré à son logiciel, ce qui a marqué une avancée majeure pour Anthropic. Deux ans plus tard, Anthropic est évalué à près de trois fois la valeur de Databricks, une entreprise qui a près de 10 ans d'avance sur elle.
OpenAI cède à la pression, commente Altman
OpenAI, le créateur de ChatGPT, a été confronté aux mêmes conditions qu'Anthropic, mais a choisi de céder à la pression du gouvernement. Sam Altman a déclaré avoir été « précipité » dans l'accord le 28 février et a rédigé une explication sur X. Altman a affirmé qu'il « n'aurait pas dû se précipiter » pour signer le contrat du DoW et que toute cette expérience avait été « une expérience enrichissante » pour le PDG milliardaire. Sam Altman pèse près de 4 milliards de dollars. Selon lui, il essayait d'éviter une « issue bien pire » et, lorsque ses tentatives pour apaiser les discussions ont échoué, il a préféré signer un contrat dangereux plutôt que de risquer des conséquences financières pour ses actionnaires.

Altman a qualifié la situation de « très compliquée » et a également présenté les détails de son contrat avec Hegseth's DoW. Selon Altman, celui-ci interdit notamment l'utilisation intentionnelle du système d'IA à des fins de surveillance domestique des citoyens et ressortissants américains. Altman a également affirmé que l'accord restreignait le suivi ou la surveillance délibérés d'individus, y compris à travers des informations personnelles acquises à des fins commerciales, et a confirmé que le système ne serait pas utilisé par les agences de renseignement du DoW. On ignore si le DoW respectera le contrat, mais celui-ci comprend au moins certaines restrictions.
Altman a immédiatement essuyé des critiques pour avoir cédé à la pression du gouvernement, mais il s'est défendu dans une autre déclaration. Altman affirme que des « fonctionnaires non élus » ne devraient pas décider de la manière dont la technologie doit être utilisée par le gouvernement. Altman a également déclaré qu'il ne voulait pas qu'OpenAI décide de la marche à suivre en cas d'urgence aux États-Unis, en particulier en cas d'attaque nucléaire. Altman estime que les experts en IA ne sont pas équipés pour prendre des décisions concernant leurs propres logiciels et qu'il vaut mieux faire confiance au gouvernement américain. Le gouvernement américain a repris le même argument contre Anthropic, mais en vain. Si Hegseth s'engage et qualifie Anthropic de risque pour la chaîne d'approvisionnement, ce serait la première fois qu'une entreprise américaine recevrait cette désignation, ce qui créerait un dangereux précédent d'ingérence du gouvernement américain dans le secteur privé.

Créé par des humains, assisté par IA.