Musk, maître en mystification
Aujourd’hui Musk a déclaré que sa start-up d’IA xAI avait « une chance d’atteindre l’IAG avec Grok 5 ». Une prédiction gratuite qui fait suite à la performance dominante de Grok 4 sur le benchmark ARC-AGI, où il a surpassé les systèmes concurrents d’OpenAI et Anthropic. Dans le même temps, Musk jette 500 contractuels en annotation de données et promeut un étudiant de 20 ans au poste de responsable de Grok.
Cette annonce de Musk constitue un cas d’école de la mystification de l’intelligence artificielle générale (IAG). Tous les ingrédients du théâtre technologique y sont réunis avec une précision presque caricaturale, au point qu’on pourrait la prendre pour une satire involontaire de ses propres méthodes de communication.
Commençons par la formulation même : « une chance d’atteindre l’AGI ». Cette expression, suffisamment vague pour ne jamais pouvoir être démentie, suffisamment prometteuse pour capturer l’attention médiatique, illustre parfaitement l’art de l’effet d’annonce sans engagement vérifiable. Musk ne dit pas que Grok 5 sera une IAG, il dit qu’il y a « une chance ». Si le système échoue, il pourra toujours affirmer qu’il n’avait parlé que d’une possibilité. Si par miracle quelque chose d’impressionnant émerge, il pourra clamer sa victoire prophétique. Face je gagne, pile tu perds.
L’invocation du benchmark ARC-AGI révèle la mécanique de légitimation pseudo-scientifique à l’œuvre. Un test technique spécifique, conçu pour mesurer certaines capacités de raisonnement abstrait, devient soudainement la preuve d’une proximité avec l’intelligence artificielle générale. C’est comme si réussir un test de QI signifiait posséder la totalité de l’intelligence humaine. Cette réduction de l’intelligence à des métriques quantifiables participe de cette mystification qui transforme des améliorations incrémentales en révolutions anthropologiques.
Le calendrier annoncé – entraînement dans les semaines à venir, sortie fin d’année – reproduit cette compression temporelle artificielle dont nous avons identifié la fonction idéologique. Cette urgence fabriquée sert plusieurs objectifs : maintenir la pression sur les concurrents, justifier des investissements colossaux, créer un sentiment d’inévitabilité qui décourage la régulation, et surtout, maintenir xAI dans le cycle médiatique face à OpenAI et Anthropic.
Mais c’est le contexte organisationnel qui révèle le plus crûment la réalité derrière le fantasme. Le licenciement de 500 annotateurs de données expose brutalement ce que l’anthropomorphisation cherche à masquer : derrière la prétendue « intelligence » de Grok se cache le travail invisible de centaines de précaires qui nettoient, classent et annotent les données. Ces travailleurs de l’ombre, soudainement jugés superflus au moment même où l’on annonce l’avènement de l’IAG, incarnent la contradiction fondamentale du récit dominant. Comment peut-on prétendre créer une intelligence surhumaine tout en se débarrassant de ceux qui lui donnent forme ?
La promotion d’un étudiant de 20 ans à la tête de l’équipe restante ajoute une touche de Silicon Valley à cette farce. Elle perpétue le mythe du génie adolescent capable de révolutionner le monde depuis son garage, tout en révélant probablement une stratégie plus prosaïque : remplacer des professionnels expérimentés par quelqu’un de malléable et peu coûteux. Cette infantilisation du développement technologique – où la jeunesse devient synonyme d’innovation – participe de la dépolitisation du débat sur l’IA.
Cette annonce fonctionne comme un concentré de tous les mécanismes de mystification dont la Silicon Valley est experte. Elle crée l’urgence (« fin de l’année ») et promet la transcendance (« l’IAG »), tout en masquant les réalités matérielles et humaines du développement de ces systèmes. Le timing n’est pas anodin : dans un contexte où les doutes sur la viabilité du modèle économique de l’IA générative commencent à émerger, où les investisseurs questionnent le retour sur les milliards engloutis, Musk relance la machine à fantasmes.
L’ironie est que cette annonce, par son caractère si manifestement calculé, révèle malgré elle la vérité qu’elle cherche à occulter. L’IAG n’est pas un horizon technique proche mais un dispositif narratif qui sert à mobiliser des capitaux, capturer l’attention, et maintenir une position dominante dans un marché hyperconcurrentiel. Chaque nouvelle version de Grok sera « celle qui pourrait » atteindre l’IAG, maintenant perpétuellement l’horizon de la promesse sans jamais avoir à la réaliser.
Ce théâtre de l’imminence permanente remplit sa fonction : pendant que nous débattons de la possibilité technique de l’IAG, les véritables questions – qui contrôle ces systèmes, selon quels critères, comment sont traités les travailleurs qui les construisent, quelles régulations démocratiques mettre en place – restent dans l’ombre. L’annonce de Musk n’est pas une prédiction technologique mais un acte politique qui vise à maintenir le statu quo tout en donnant l’illusion du changement.
Du pur bullshit.