Menu
https://www.directs.fr/app/uploads/2020/05/cropped-logo-directs.pngDirects.fr
  • Actualité
    • Économie
    • Faits divers
    • Insolite
    • Météo
    • International
    • Planète
    • Politique
    • Santé
    • Société
  • Divertissement
    • Sciences et Technologie
  • Sport
Sciences et Technologie

Claude : l’intelligence artificielle controversée au cœur des frappes en Iran et cible de Trump

Sciences et Technologie > Donald Trump > IA
Par Jérôme publié le 3 mars 2026 à 15h00.
Interface numérique et algorithmes complexes

Image d'illustration. Interface numérique et algorithmes complexesADN

L’intelligence artificielle Claude, développée par la société Anthropic, joue un rôle central dans la planification de frappes en Iran. Critiquée vivement par Donald Trump, cette technologie alimente de nombreux débats sur son utilisation stratégique et politique.

Tl;dr

  • Le Pentagone écarte Anthropic, choisit OpenAI pour ses IA.
  • Anthropic refuse un usage militaire sans garde-fous éthiques.
  • Claude utilisé en Iran, transition vers OpenAI en cours.

Tensions entre éthique et sécurité nationale

Alors que les États-Unis cherchent à renforcer leurs capacités militaires via l’intelligence artificielle, une décision récente du Pentagone vient illustrer la complexité de l’équation entre innovation technologique et valeurs éthiques.

L’entreprise Anthropic, fondée en 2021 par d’anciens membres d’OpenAI, s’est retrouvée au cœur d’une controverse après avoir refusé de céder aux demandes du ministère de la Défense américain. En cause : le refus d’ouvrir sans restrictions son modèle d’IA, baptisé Claude, à des usages militaires.

L’approche prudente d’Anthropic et ses conséquences

Guidée par la volonté d’encadrer strictement l’utilisation de l’intelligence artificielle, la start-up a notamment publié une « constitution » destinée à limiter les dérives potentielles de Claude. Son fondateur, Dario Amodei, a toujours insisté sur la nécessité de placer des garde-fous autour des systèmes autonomes, estimant qu’ils ne sont pas encore assez fiables pour prendre seuls des décisions mortelles. Face à l’exigence d’une utilisation illimitée formulée par le ministre de la Défense, Pete Hegseth, Anthropic a maintenu sa ligne : pas question d’autoriser un usage non supervisé.

Vous aimez nos contenus ?
Recevez chaque jour nos dernières publications gratuitement et directement dans votre boite mail
Recevoir la newsletter

Cette position ferme a valu à l’entreprise des critiques virulentes du camp républicain. L’ancien président Donald Trump a dénoncé dans un communiqué : « Les États-Unis ne laisseront jamais une entreprise de gauche radicale et woke dicter à notre grande armée comment combattre et gagner des guerres ! » Accusations auxquelles Pete Hegseth a ajouté celle de « trahison », bannissant toute collaboration future avec la start-up californienne.

L’armée américaine tourne la page Claude… en douceur

Pour assurer une transition fluide, le ministère de la Défense prévoit toutefois que Claude reste opérationnel pour six mois supplémentaires. Une décision pragmatique qui vise à éviter tout risque lors du passage à une autre technologie. Dans les faits, Claude aurait même été sollicité récemment lors de frappes coordonnées sur l’Iran — information relayée par le Wall Street Journal — alors même que son interdiction venait d’être prononcée.

À noter également que cette intelligence artificielle avait déjà servi lors de la capture du dirigeant vénézuélien Nicolás Maduro, événement qui avait contribué à détériorer les relations entre Anthropic et le gouvernement américain.

L’alternative OpenAI : même prudence affichée ?

C’est donc vers OpenAI, célèbre pour son outil ChatGPT, que s’est tourné le Pentagone afin de remplacer Claude. Le patron d’OpenAI, Sam Altman, assure que ce partenariat n’exclura pas certains principes-clés : « L’interdiction de la surveillance de masse au niveau national et la responsabilité humaine dans l’usage de la force… exactement comme l’avait exigé Anthropic. »

Il promet également des garanties techniques spécifiques pour encadrer le comportement des modèles déployés dans le réseau militaire classifié américain — preuve s’il en fallait qu’entre ambitions stratégiques et impératifs moraux, l’équilibre reste délicat.

Le Récap
  • Tl;dr
  • Tensions entre éthique et sécurité nationale
  • L’approche prudente d’Anthropic et ses conséquences
  • L’armée américaine tourne la page Claude… en douceur
  • L’alternative OpenAI : même prudence affichée ?
En savoir plus
  • Face à d’éventuelles surtaxes américaines, Macron plaide pour une riposte européenne coordonnée
  • Donald Trump affirme un lien entre paracétamol et autisme infantile : qu’en dit la science ?
  • Trump, 100 jours au pouvoir et des sondages défavorables
Vous aimez nos contenus ?
Recevez chaque jour nos dernières publications gratuitement et directement dans votre boite mail
Recevoir la newsletter
https://www.directs.fr/app/uploads/2020/05/cropped-logo-directs.png
  • À propos
  • Mentions Légales
  • Archives
  • Gestion des données personnelles
  • Twitter
© 2026 - Tous droits réservés sur les contenus du site Directs.fr