Claude : l’intelligence artificielle controversée au cœur des frappes en Iran et cible de Trump

Image d'illustration. Interface numérique et algorithmes complexesADN
L’intelligence artificielle Claude, développée par la société Anthropic, joue un rôle central dans la planification de frappes en Iran. Critiquée vivement par Donald Trump, cette technologie alimente de nombreux débats sur son utilisation stratégique et politique.
Tl;dr
- Le Pentagone écarte Anthropic, choisit OpenAI pour ses IA.
- Anthropic refuse un usage militaire sans garde-fous éthiques.
- Claude utilisé en Iran, transition vers OpenAI en cours.
Tensions entre éthique et sécurité nationale
Alors que les États-Unis cherchent à renforcer leurs capacités militaires via l’intelligence artificielle, une décision récente du Pentagone vient illustrer la complexité de l’équation entre innovation technologique et valeurs éthiques.
L’entreprise Anthropic, fondée en 2021 par d’anciens membres d’OpenAI, s’est retrouvée au cœur d’une controverse après avoir refusé de céder aux demandes du ministère de la Défense américain. En cause : le refus d’ouvrir sans restrictions son modèle d’IA, baptisé Claude, à des usages militaires.
L’approche prudente d’Anthropic et ses conséquences
Guidée par la volonté d’encadrer strictement l’utilisation de l’intelligence artificielle, la start-up a notamment publié une « constitution » destinée à limiter les dérives potentielles de Claude. Son fondateur, Dario Amodei, a toujours insisté sur la nécessité de placer des garde-fous autour des systèmes autonomes, estimant qu’ils ne sont pas encore assez fiables pour prendre seuls des décisions mortelles. Face à l’exigence d’une utilisation illimitée formulée par le ministre de la Défense, Pete Hegseth, Anthropic a maintenu sa ligne : pas question d’autoriser un usage non supervisé.
Cette position ferme a valu à l’entreprise des critiques virulentes du camp républicain. L’ancien président Donald Trump a dénoncé dans un communiqué : « Les États-Unis ne laisseront jamais une entreprise de gauche radicale et woke dicter à notre grande armée comment combattre et gagner des guerres ! » Accusations auxquelles Pete Hegseth a ajouté celle de « trahison », bannissant toute collaboration future avec la start-up californienne.
L’armée américaine tourne la page Claude… en douceur
Pour assurer une transition fluide, le ministère de la Défense prévoit toutefois que Claude reste opérationnel pour six mois supplémentaires. Une décision pragmatique qui vise à éviter tout risque lors du passage à une autre technologie. Dans les faits, Claude aurait même été sollicité récemment lors de frappes coordonnées sur l’Iran — information relayée par le Wall Street Journal — alors même que son interdiction venait d’être prononcée.
À noter également que cette intelligence artificielle avait déjà servi lors de la capture du dirigeant vénézuélien Nicolás Maduro, événement qui avait contribué à détériorer les relations entre Anthropic et le gouvernement américain.
L’alternative OpenAI : même prudence affichée ?
C’est donc vers OpenAI, célèbre pour son outil ChatGPT, que s’est tourné le Pentagone afin de remplacer Claude. Le patron d’OpenAI, Sam Altman, assure que ce partenariat n’exclura pas certains principes-clés : « L’interdiction de la surveillance de masse au niveau national et la responsabilité humaine dans l’usage de la force… exactement comme l’avait exigé Anthropic. »
Il promet également des garanties techniques spécifiques pour encadrer le comportement des modèles déployés dans le réseau militaire classifié américain — preuve s’il en fallait qu’entre ambitions stratégiques et impératifs moraux, l’équilibre reste délicat.
