Ne pas capituler

De la vérité à l’ère du techno-capitalisme

[note après lecture de : De la bêtise artificielle. Pour une politique des technologies numériques, d’Anne Alombert]

De la bêtise artificielle

L’IA nous confronte à un paradoxe fondamental que la pensée de Bernard Stiegler permet d’éclairer : toute technique est pharmacologique, simultanément poison et remède, et son caractère bénéfique ou toxique dépend moins de sa nature intrinsèque que des conditions sociales, économiques et politiques de son déploiement. Cette ambivalence constitutive invalide autant les discours techno-prophétiques qui promettent le salut par l’algorithme que les condamnations catastrophistes qui n’y voient qu’aliénation et destruction. La question n’est jamais de savoir si une technique est bonne ou mauvaise en soi, mais comment transformer ses potentialités toxiques en capacités thérapeutiques.

Cette transformation exige de distinguer rigoureusement entre la technique elle-même et les conditions de son appropriation capitaliste. Les algorithmes de traitement du langage naturel ne sont pas intrinsèquement voués à produire de la “bêtise artificielle” ou à détruire le crédit social nécessaire à tout échange. C’est leur capture par des monopoles numériques, leur développement selon les impératifs de la disruption et de l’accumulation, leur design orienté vers la captation attentionnelle et l’extraction de données qui en font des instruments de prolétarisation cognitive. La sophistique computationnelle que nous observons n’est pas une fatalité technique mais le produit d’un mode de production spécifique.

Cette distinction ouvre l’espace d’une bifurcation possible : développer ce qu’Anne Alombert nomme des “technologies herméneutiques”, c’est-à-dire des dispositifs numériques orientés non vers la simulation et le remplacement mais vers l’analyse, l’annotation, la navigation critique dans les archives. Plutôt que de générer automatiquement des contenus standardisés, l’IA pourrait servir à discrétiser les flux audiovisuels, à indexer les corpus, à faciliter la recherche et la vérification, à supporter des pratiques collectives d’interprétation. Cette réorientation technique réconcilierait, selon la belle formule d’Alombert, “Hermès et Prométhée” — l’interprétation et le calcul.

Mais cette perspective se heurte à une difficulté épistémologique majeure : comment préserver notre capacité collective à distinguer le vrai du faux quand l’IA produit du vraisemblable statistique sans confrontation méthodique au réel ? Il ne s’agit pas de sombrer dans le relativisme constructiviste — le réel objectif existe indépendamment de nos discours et le changement climatique se produit que nous le reconnaissions ou non. Mais nos accès à ce réel sont toujours médiatisés, et l’IA constitue une nouvelle médiation particulièrement problématique car elle peut simuler l’apparence de vérité sans le processus de vérification qui la fonde. Le danger n’est pas que l’IA créerait des “vérités alternatives” mais qu’elle noie les faits objectifs sous un déluge de contenus plausibles, rendant le travail de discrimination cognitive exponentiellement plus difficile.

D’autant plus difficile que nous assistons aujourd’hui à la fusion monstrueuse entre accélération technologique et régression autoritaire, entre libertarianisme et nationalismes xénophobes, dans ce que certains nomment déjà le “techno-fascisme”. Cette alliance n’est pas contingente mais révèle la vérité du projet libertarien : non pas la liberté pour tous mais la souveraineté absolue du capital. Le transhumanisme devient dans ce cadre l’idéologie d’une nouvelle aristocratie qui ne se définirait plus par le sang mais par l’augmentation technologique, les “enhanced” contre les “naturels”, dans une version high-tech de l’eugénisme.

Face à cette configuration dystopique, nous risquons l’émergence d’une “stratification ontologique”* : une réalité à étages où l’élite accède aux données brutes et aux moyens de vérification tandis que les masses sont maintenues dans un brouillard informationnel permanent. Entre les deux, des “bulles de réalité” personnalisées, algorithmiquement optimisées pour maximiser docilité & engagement. La confusion cognitive devient alors non pas un accident mais un outil de domination.

Sur ce point précis, une sortie de secours ? Anne Alombert — à l’instar de Bernard Stiegler — fantasme sur le pouvoir des institutions de l’ordre capitaliste, ce qui n’a rigoureusement aucun sens. Pour sortir de la catastrophe anthropologique, il faudra remplacer le capitalisme et débarrasser la société de la loi du profit, sans quoi rien ne changera fondamentalement — et cela, seul le mouvement ouvrier en a le potentiel.

Anne Alombert, en revanche, nous aide à comprendre que cette bataille se joue aussi sur notre capacité, aujourd’hui, à transformer les nouveaux outils numériques en instance de vérification collective plutôt qu’en machine de prolétarisation et de crétinisation. Sur notre capacité à inventer des formes d’appropriation critique des techniques numériques où la puissance de calcul servira l’intelligence et les luttes collectives plutôt que la bêtise systémique.

La perpétuation du désastre n’est pas une fatalité.

22-09-2025

*stratification ontologique : phénomène de fragmentation de la réalité en couches différenciées, où chaque strate accède à des niveaux différents de vérité et de vérification.