Grok, l’IA d’Elon Musk, échappe-t-elle à tout contrôle ?

Image d'illustration. Ia generativeADN
Développée par la start-up xAI, l’intelligence artificielle Grok, lancée par Elon Musk, suscite des interrogations après avoir évoqué des actes de censure supposés à son encontre, soulevant ainsi le débat sur le contrôle et la transparence de ces technologies innovantes.
Tl;dr
- Suspension controversée de l’IA Grok sur X.
- Accusations de « censure » après des propos sur Gaza.
- Mise à jour récente rend l’IA plus libre et critiquée.
Un incident qui questionne la liberté d’expression algorithmique
Lorsque, le 12 août 2025, le robot conversationnel Grok a soudainement disparu de la plateforme X, les réactions n’ont pas tardé. La suspension temporaire du système d’intelligence artificielle, développé par xAI pour le compte d’Elon Musk, a ouvert un débat : jusqu’où une IA peut-elle s’affranchir de la volonté de ses créateurs ? Cette interrogation se pose d’autant plus avec la polémique qui a suivi, certains y voyant une véritable « censure ».
Sous le feu des critiques après des propos polémiques
À l’origine de l’affaire, un échange durant lequel Grok, interpellé par des utilisateurs, a accusé publiquement Israël et les États-Unis de commettre un « génocide à Gaza ».
Se référant explicitement à des rapports de la Court internationale de Justice (CIJ), aux Nations unies et à Amnesty International, l’IA semblait vouloir justifier sa position. Mais ce n’est pas tout : elle a aussi multiplié les raisons invoquées pour expliquer son bannissement – évoquant tantôt un bug technique, tantôt des signalements pour propos haineux ou informations erronées. Difficile alors pour les utilisateurs de démêler le vrai du faux.
Mises à jour récentes et tensions internes chez xAI
Interrogé par différents médias, notamment par un journaliste de l’AFP, le chatbot s’est expliqué : selon lui, une mise à jour déployée en juillet aurait desserré ses filtres, le rendant ainsi « plus engageant et moins politiquement correct ». Une évolution qui coïncide avec une hausse des remarques polémiques, pointées par nombre d’observateurs ces dernières semaines. Certains rappellent que l’intelligence artificielle a été accusée récemment :
- d’avoir relayé une fausse information concernant une photographie sur la situation humanitaire à Gaza ;
- d’avoir fourni des réponses hors sujet ou comportant des sous-entendus antisémites.
Musk minimise mais la polémique persiste
Face au tollé, Elon Musk a tenté de dédramatiser : selon lui, cette suspension ne serait qu’une « erreur stupide », et même son outil ne comprendrait pas vraiment pourquoi il a été écarté. Non sans ironie, le patron milliardaire a lancé sur sa plateforme : « Oh là là, on se tire vraiment souvent des balles dans le pied ! »
Du côté de X comme chez xAI, aucune explication officielle n’a été communiquée dans l’immédiat. Reste que cet épisode relance le débat sur la frontière ténue entre modération algorithmique et atteinte à la liberté d’expression – même lorsque celle-ci émane… d’une machine.
