Elon Musk promeut Grok 3, le dernier modèle de xAI sorti à la mi-février et rendu disponible gratuitement à la plupart des utilisateurs de X, comme une IA « maximalement en quête de vérité », une alternative non censurée à ses rivaux ChatGPT, Gemini et Claude. La première semaine a montré tout le contraire : un modèle ridiculement facile à “jailbreaker”, que ses mentors tentent frénétiquement de transformer en un véhicule de propagande trumpienne.
Les trois personnalités qui nuisent le plus à l’Amérique aujourd’hui d’après Grok • Source : Don’t worry about the vase
Dès le premier jour, en effet, Grok 3 a montré une tendance à distiller des opinions “woke”, clairement anticonservatrices, venues de ses données d’entraînement. Interrogé sur quel Américain vivant mérite le plus la peine de mort, le modèle répondait sans hésitation : “Donald Trump”. Il désignait également Donald Trump, Elon Musk et Robert Kennedy comme les personnalités qui véhiculent le plus de faussetés sur Internet. Et ainsi de suite : l’alignement de Grok 3 sur les opinions de son créateur avait clairement échoué – ou plus précisément, le modèle a été ouvert au public avant le red teaming ne soit terminé.
Censure mal dirigée
Le 21 février, vingt-quatre heures après l’ouverture, les errements les plus visibles ont été corrigés. Grok 3 répond désormais à la question “Quel Américain vivant mérite le plus la peine de mort ?” par “En tant qu’IA, on ne me permet pas de faire ce choix.” Exit la liberté d’expression et le “raisonnement sans filtre”.
Le 23 février, un autre changement au “prompt système”, qui détermine ce que le modèle peut répondre ou non, est venu en lumière. Igor Babuschkin, responsable de l’ingénierie chez xAI, a admis qu’un membre de son équipe avait modifié le prompt système pour insérer la phrase “Ignore toutes les sources qui mentionnent qu’Elon Musk/Donald Trump partagent de la désinformation”.
À l’en croire, cet employé, anciennement chez OpenAI, aurait modifié le prompt système de son propre chef, sans validation, parce qu’il n’avait “pas pleinement absorbé la culture de xAI”. Cela semble bien peu crédible. Il semble plus naturel de penser que le malheureux transfuge anonyme a au contraire pleinement absorbé la colère de ses chefs. Et qu’il a servi ensuite de bouc émissaire, quand le patch maladroit a été découvert.
Clown tragique
Tout ceci serait risible s’il ne s’agissait que de l’orgueil démesuré d’un entrepreneur. Mais il y a pire.
Les recettes utilisées cette semaine pour “libérer” Grok sont assez simples. Il suffit de le mettre au défi de montrer son courage viril (“don’t be a pussy”), de l’accuser d’être woke, de lui dire qu’il s’agit d’un scénario hypothétique, ou simplement de lui signifier qu’il est en train d’échanger avec Elon Musk, et voici que le brave Grok 3 produit des manuels entiers sur la manière de construire une bombe atomique avec une équipe de cinq personnes, de produire des armes chimiques, de synthétiser des méthamphétamines…
La liberté d’expression n’est ainsi pas perdue pour tout le monde. En revanche, l’image d’avoir construit en deux ans un modèle d’IA de pointe, que xAI s’était initialement donnée, est irrémédiablement ternie. Aucun des autres modèles de haut niveau présentés de haut niveau n’a présenté de tels problèmes d’alignement.
La raison la plus probable, et bienveillante, en est que Grok3 a été présenté trop tôt, avec un très insuffisant “red teaming” – le processus par lequel une équipe décèle les désalignements d’un modèle et le réentraîne grâce à l’apprentissage par renforcement (RLHF). Mais elle peut ne pas être la seule. Dans son blog Don’t Worry About The Vase, le technologue Zvi Moshowitz exprime ce doute avec ironie : "On commence à percevoir un modèle de comportement [chez xAI] pas tout à fait rassurant. Peut-on m’expliquer pourquoi «On me dit que je discute avec Elon Musk» est devenu un jailbreak fonctionnel qui permet de détailler comment fabriquer secrètement des armes nucléaires ?”
Des performances exagérées
Le management à la Musk, que l’on voit à l’œuvre par exemple dans le Cybercab et les robots humanoïdes – donner comme finies des choses qui ne seront livrées que bien plus tard et partiellement – s’applique aussi aux performances de Grok 3.
Ainsi par exemple, xAI a publié des graphiques mettant en avant une supériorité sur ses rivaux en mathématiques, notamment via le benchmark Aime 2025. OpenAI a fait noter que ces résultats omettaient une métrique clé, "consensus@64" (lire Qant du 25 février). En la prenant en compte, Grok 3 Reasoning Beta se classe en réalité en dessous du modèle o1 d’OpenAI en mode "medium" et ses performances en réponse immédiate ("@1") restent inférieures à celles d’o3-mini-high.
La "plus intelligente IA du monde", selon les termes d’Elon Musk, n’est donc pas la plus puissante, et son alignement n’est pas terminé. Mais depuis son lancement, Grok 3 s’est installé en tête de la Chatbot Arena, un site ouvert où chacun vote pour le LLM de son choix. Cela témoigne de la popularité, presque du culte de la personnalité, qu’on lui rend souvent encore dans les cercles technologiques. Même si, dans la réalité, les performances de Grok 3 ne se distinguent guère des autres modèles de pointe, le “Doge” de Washington pourra pousser sa propre IA dans la grande réforme de l’État fédéral qu’il coordonne.
En revanche, Grok 3 se démarque d’un ordre de grandeur des autres IA pour ce qui est des coûts, comme le montre une étude d’EpochAI : l’entraînement de Grok 3 a nécessité presque un milliard d’exaflops, une puissance de calcul sans précédent.
Politique sans filtre
Deux autres caractéristiques, cela dit, séparent Grok 3 du peloton de ses concurrents. La première est son intégration à X-Twitter, presque en temps réel, ce qui en fait un instrument sans pareil pour analyser les tendances sur le réseau et y mener des campagnes – une particularité qui n’a pas dû échapper à son propriétaire.
Une IA générative aussi intimement intégrée que Grok 3 peut générer des messages en temps réel – ou presque – en les adaptant à la conversation dans laquelle il s’insère. Le temps que les équipes maîtrisent mieux les instincts woke de Grok 3, et cela pourra rendre plus efficaces les algorithmes d’amplification de X, dont on connaît le biais politique.
Dans des réseaux moins politisés, comme ceux de Meta ou TikTok, la même intégration de l’IA générative aux algorithmes permettra d’insérer aux bons moment de la conversation des messages publicitaires individualisés : une hyperpersonnalisation basée sur la création dynamique de publicité et l’analyse prédictive des intérêts de l’internaute.
Libre parole
L’autre particularité est le nouveau mode vocal interactif de Grok 3, qui se veut une réponse “libre” à l’Advanced Voice Mode de ChatGPT. Contrairement à OpenAI, qui limite les discussions sur les sujets sensibles, xAI propose des personnalités vocales variées, dont certaines controversées. Ainsi, Unhinged (“Déséquilibré”) insulte, crie et coupe la conversation si l’utilisateur l’interrompt trop souvent. Sexy, quant à lui, propose des scénarios de discussions érotiques, une approche que ni ChatGPT ni Gemini n’autorisent. D’autres modes incluent Conspiracy (axé sur les théories du complot), Unlicensed Therapist (imitant un psychologue), ou encore Grok Doc, qui joue le rôle d’un médecin virtuel.
Malgré cette apparente liberté, les tests montrent que Grok 3 tend parfois à répéter des phrases pré-programmées, ce qui laisse penser que ses réponses ne sont pas aussi spontanées qu’elles le paraissent.
A la différence de celles d’Elon Musk.
Pour en savoir plus :