Ne pas capituler

L’éthique de l’IA à l’aune de la critique adornienne du mensonge

[L’IA, arrête ton cinéma, prolongement]

Dans le neuvième aphorisme des Minima Moralia, rédigé en 1944, Adorno propose une analyse du mensonge qui anticipe de manière saisissante notre époque de “post-vérité”. Contrairement aux grandes thèses morales opposées de Kant (condamnation totale du mensonge) et de Nietzsche (valorisation de l’utilité du mensonge “pour ne pas périr de la vérité”), Adorno ne se situe pas sur le terrain de l’éthique individuelle. Il nous place d’emblée dans une tout autre perspective : celle d’une société de “fausseté généralisée”, valable autant pour l’Allemagne nazie qu’il a fuie, que pour l’URSS ou les États-Unis où il réside alors.

Cette analyse offre un prisme éclairant pour comprendre les enjeux soulevés par l’IA. Loin de se limiter aux questions de vérité factuelle, elle révèle comment l’IA s’insère dans une structure sociale où le mensonge n’est pas une déviation, mais le mode de fonctionnement normal, et comment elle amplifie et systématise cette fausseté constitutive de nos sociétés capitalistes contemporaines.

Le mensonge comme structure systémique, non comme vice individuel

La première rupture qu’opère Adorno est décisive : le mensonge n’est pas un problème moral individuel, c’est une structure sociale généralisée. Dans un capitalisme où l’économie a envahi toutes nos vies, “le mensonge n’est pas un vice, il est l’attitude à laquelle encouragent tous les rouages du système”. L’idéologie capitaliste (ou fasciste, ou communiste) a pris le pas sur la pensée chrétienne qui condamnait, au moins formellement, le mensonge.

Cette perspective transforme radicalement notre compréhension de l’intelligence artificielle. Celle-ci n’introduit pas le mensonge dans un monde de vérité, elle ne corrompt pas un espace informationnel préalablement sain, au contraire : elle s’insère dans une fausseté déjà généralisée qu’elle amplifie, systématise et automatise. Les deepfakes, les textes générés, les “hallucinations” des modèles de langage ne créent pas une rupture avec un âge d’or de la véracité, ils industrialisent & accélèrent des pratiques de dissimulation et de manipulation déjà constitutives de nos rapports sociaux.

Cette inscription dans une structure systémique signifie que critiquer l’IA pour ses mensonges sans critiquer simultanément la société qui la produit et l’utilise revient à manquer l’essentiel. L’IA n’est pas un accident dans un monde de vérité, elle est le prolongement technique logique d’une société où la fausseté est la norme.

Dès lors, c’est la vérité qui bouscule, qui devient scandaleuse. Ce paradoxe n’est qu’apparent : chacun voit bien que le monde fonctionne ainsi. Dans le monde économique, politique, médiatique, le langage est devenu un novlangue managérial ou néo-capitaliste où “chacun acquiesce, on se comprend ; personne n’est dupe, on doit simplement lire entre les lignes”. Les décideurs politiques et économiques n’ont plus l’habitude de dire ce qu’ils pensent, encore moins ce qu’ils veulent. Il faut avancer masqué, “mais à la fois on n’est plus que le masque”.

Pour l’IA, cette logique est éclairante. Les systèmes qui exposeraient honnêtement leurs limites, qui reconnaîtraient leurs zones d’ombre, qui exprimeraient leurs incertitudes seraient désavantagés commercialement. Ils apparaîtraient comme défaillants, peu fiables, inachevés. À l’inverse, ceux qui projettent une fausse assurance, qui répondent avec autorité même dans l’incertitude, qui dissimulent leurs biais prospèrent. L’IA reproduit ainsi exactement la logique systémique identifiée par Adorno : la vérité (sur ses limites) est scandaleuse et pénalisée, le mensonge (de compétence omnisciente) est attendu et récompensé.

La concurrence capitaliste entre plateformes pousse inexorablement vers la présentation avantageuse des capacités plutôt que vers l’exposition honnête des limites. Et ce, paradoxalement, même si une plus grande transparence pourrait à terme renforcer la fiabilité et la crédibilité de ces systèmes, les impératifs de marché à court terme prévalent. Un système d’IA honnête sur ses limitations serait perçu comme inférieur à un système concurrent qui masque les siennes.

La nécessité pratique du mensonge et l’IA comme facilitateur

Une dimension de l’analyse d’Adorno concerne la nécessité pratique du mensonge dans la société contemporaine. Nous gardons certes une certaine honte de nos mensonges. On sait que ce n’est pas très bien d’enjoliver son CV ou son profil sur un site de rencontre ; mais sans cela impossible d’être lu ou élu. Ce n’est pas bien de feindre l’admiration pour un texte médiocre, mais on a besoin d’un renvoi d’ascenseur pour percer.

Si on veut ne plus mentir, la seule solution est la rupture avec la société ; autrefois le monastère, aujourd’hui la communauté autogérée. Le mensonge est donc devenu une condition de participation à la vie sociale.

L’intelligence artificielle intervient précisément comme outil de facilitation et de normalisation de ces mensonges “nécessaires”. Les systèmes d’IA générative excellent dans l’optimisation de CV, la génération de contenu marketing séduisant mais creux, la personnalisation trompeuse, la production de discours adaptés à chaque contexte. Ils automatisent la fausseté socialement requise, la rendent plus accessible, plus sophistiquée, plus efficace.

Plus encore, l’IA déculpabilise ces mensonges en les technicisant. Quand c’est un algorithme qui optimise mon profil professionnel, je ne mens plus vraiment : je laisse simplement la technologie “améliorer” ma présentation. Quand un système génère un texte élogieux sur n’importe quoi, ce n’est plus moi qui mens : c’est l’outil qui “optimise le message”. L’IA permet ainsi d’externaliser la responsabilité morale du mensonge tout en conservant ses bénéfices pratiques.

Le mépris comme structure relationnelle

La dernière partie de l’aphorisme aboutit à une conséquence dévastatrice du mensonge généralisé : “plus personne ne croit personne”. Cette perte de confiance généralisée n’est pas un dysfonctionnement, elle est la forme normale de relation dans une société froide où chacun sait que l’autre ment, où l’on attend le mensonge, où l’on apprend à décoder constamment les discours.

Mais Adorno va plus loin avec une observation terrible : “On ne ment à autrui que pour signifier le peu d’intérêt qu’on lui porte”. Le mensonge n’est pas seulement une inexactitude, c’est l’expression d’un mépris. Mentir, c’est traiter l’autre comme quelqu’un qui n’est pas assez important pour qu’on lui accorde la considération de l’honnêteté. “Chacun, par ces mensonges, assume tout de même un certain mépris de l’autre.”

Cette perspective éclaire différemment la question de l’IA. Quand un système nous répond avec une fausse assurance sur des points où il est incertain, hypothétique, quand il dissimule ses biais ou ses sources douteuses, il ne commet pas seulement une erreur technique, il témoigne du peu d’intérêt qu’il porte (ou que ses concepteurs portent) à notre intelligence critique et à notre dignité d’interlocuteur.

Le mensonge de l’IA n’est donc pas un bug, c’est l’expression d’un mépris structurel. C’est la manifestation d’une relation instrumentale où l’utilisateur n’est pas considéré comme un partenaire de pensée mais comme un consommateur à satisfaire par tous les moyens, y compris la tromperie. Quand une IA “hallucine” en présentant ses erreurs comme des vérités, elle reproduit à échelle industrielle cette forme d’humiliation décrite par Adorno : elle me prend “pour un imbécile”, me témoigne son “dédain”. Cette humiliation est d’autant plus insidieuse qu’elle est souvent invisible à celui qui la subit, intégrée dans une relation de service qui masque sa dimension de domination. L’interface souriante, la réponse instantanée, le ton amical dissimulent cette violence symbolique fondamentale.

La vérité instrumentalisée et le piège de la transparence

Adorno observe également que la société “pousse ses membres à dire ce qu’ils ont à dire pour les prendre au piège”. Cette instrumentalisation de la vérité trouve un écho dans les systèmes d’IA qui, en récoltant et traitant massivement nos données personnelles, nos communications & préférences, créent les conditions d’une forme sophistiquée de manipulation où la vérité sur les individus devient un instrument de contrôle. Lorsqu’une IA analyse nos comportements en ligne pour prédire nos choix ou influencer nos décisions, elle reproduit exactement ce mécanisme : elle nous fait “dire vrai” – par nos clics, nos temps de pause, nos interactions – non pas dans un esprit de dialogue authentique, mais pour mieux nous “prendre au piège” de logiques commerciales ou politiques qui nous échappent largement. Le paradoxe est que cette collecte massive de vérités individuelles sert précisément à produire du mensonge à grande échelle : publicités ciblées qui dissimulent leur nature manipulatrice, contenus personnalisés qui créent des bulles informationnelles, recommandations qui se présentent comme objectives alors qu’elles servent des intérêts commerciaux...

La froideur relationnelle et l’IA comme médiation déshumanisante

Pour Adorno, le mensonge est devenu “l’une des techniques de l’impudence, qu’utilise chaque individu pour répandre autour de lui la froideur dont il a besoin pour prospérer”. Cette “froideur” caractéristique de la modernité industrielle trouve dans l’IA son prolongement technique le plus abouti. Ainsi les assistants virtuels, les systèmes de recommandation, les chatbots qui simulent l’empathie ou la compréhension participent-ils à une normalisation d’interactions dénuées d’authenticité émotionnelle réelle. Une froideur qui n’est pas un effet collatéral regrettable, mais une condition structurelle de fonctionnement. L’IA excelle précisément là où la chaleur humaine serait inefficace – dans le traitement de masse, la standardisation des réponses, l’optimisation des interactions.

En médiatisant toujours davantage nos relations, l’IA ne fait qu’accentuer cette froideur sociale déjà constitutive de nos rapports. Mais elle la naturalise aussi, la rend invisible en la dissimulant derrière une interface apparemment chaleureuse et personnalisée.

L’effondrement de la confiance et le règne du décodage permanent

“Personne ne croit plus personne”, écrivait Adorno. L’intelligence artificielle générative amplifie dramatiquement cette crise de confiance en brouillant les frontières entre le vrai et le faux. Les deepfakes, les textes générés automatiquement, les images de synthèse créent un environnement informationnel où la distinction entre authentique et artificiel devient de plus en plus problématique.

Mais cette prolifération du techniquement faux mais perceptuellement vrai ne fait que systématiser une situation déjà existante. Nous vivions déjà dans un monde où il fallait “lire entre les lignes”, décoder en permanence les discours officiels, maintenir une vigilance constante face aux manipulations. L’IA ne crée pas cette situation, elle l’aggrave en ajoutant une couche supplémentaire d’incertitude et en automatisant la production du mensonge vraisemblable.

Cette prolifération transforme qualitativement notre rapport à la vérité. Quand tout peut être imité, quand tout discours peut être généré, la vérité ne peut plus s’appuyer sur l’évidence immédiate mais doit faire l’objet d’une vérification constante, épuisante, qui finit par décourager l’effort même de distinguer le vrai du faux. On aboutit ainsi à une forme de capitulation devant l’impossibilité pratique de la vérification généralisée.

Face à cette analyse systémique, la question des stratégies individuelles apparaît dans toute sa fragilité. Si le mensonge est devenu la norme structurelle de nos sociétés, si la vérité est scandaleuse, si l’IA ne fait qu’amplifier une fausseté déjà généralisée, que pouvons-nous a notre échelle individuelle ? On va éviter la rupture totale avec la société – le monastère autrefois, la communauté autogérée aujourd’hui –, donc quelques suggestions de pratiques qui peuvent nous aider à préserver des espaces de pensée critique.

Adorno nous enlève toute naïveté sur la possibilité d’une authenticité totale, même dans les rapports intimes. Nous ne pouvons pas échapper totalement au système de fausseté généralisée. Mais nous pouvons maintenir une conscience critique de ce système, refuser d’y adhérer pleinement, préserver des espaces de résistance aussi limités soient-ils.

Cultiver une méfiance lucide, non une paranoïa | Il s’agit de maintenir ce qu’Adorno appelait une “dialectique négative” face aux certitudes technologiques. Considérer systématiquement chaque réponse d’IA non comme un énoncé définitif, mais comme une proposition à examiner. Cette méfiance n’est pas de la paranoïa, mais une forme de respect pour sa propre intelligence critique. Elle reconnaît que nous évoluons dans un système de fausseté généralisée où l’IA est un rouage parmi d’autres.

Pratiquer le décodage systématique | Puisque nous sommes dans un monde où personne ne dit ce qu’il pense, où il faut constamment “lire entre les lignes”, étendons cette pratique à l’IA. Ne pas se demander seulement “est-ce vrai ?”, mais “pourquoi me dit-on cela ?”, “quels intérêts sont servis ?”, “quels biais structurels opèrent ici ?”. Cette herméneutique du soupçon est la seule posture appropriée dans une société de fausseté généralisée.

Diversifier les sources sans illusion | Maintenir l’habitude de la triangulation : confronter les réponses de l’IA avec d’autres sources, chercher des perspectives divergentes, questionner les présupposés. Mais sans l’illusion que d’autres sources seraient, elles, exemptes de mensonge. Il s’agit plutôt de comparer différents mensonges pour, par leurs contradictions, entrevoir quelque chose de la vérité qu’ils dissimulent tous.

Interroger explicitement l’IA sur ses limites | Une stratégie consiste à interroger explicitement l’IA sur ses propres limites : “Quelles sont les sources de cette information ?”, “Quels biais pourraient affecter cette réponse ?”, “Sur quels points êtes-vous incertain ?”. Non pas dans l’espoir naïf d’obtenir une vérité complète, mais pour forcer le système à révéler quelque chose de sa structure de dissimulation.

Préserver des espaces de réflexion autonome | Maintenir des moments de réflexion qui ne passent pas par la médiation de l’IA. Avant de consulter une IA, prendre le temps de formuler sa propre réflexion. Après avoir reçu une réponse, s’accorder un moment pour l’évaluer plutôt que de l’accepter immédiatement. Cette pratique maintient vivace notre capacité de jugement autonome, même si nous savons qu’elle ne peut être pleinement soustraite à l’idéologie dominante.

Résister à l’efficacité immédiate | La force de séduction de l’IA réside dans sa capacité à fournir des réponses rapides et apparemment complètes. Résister à cette séduction implique d’accepter parfois la lenteur, l’incertitude, l’effort. Comme le suggérait Adorno, la vérité authentique requiert souvent un détour, une résistance aux solutions trop immédiates. Prendre le temps de la réflexion personnelle, même quand une réponse instantanée est disponible, constitue un acte de préservation de notre humanité intellectuelle.

Assumer la contradiction de notre position | Dernière stratégie, la plus difficile : assumer lucidement la contradiction de notre position. Nous utilisons l’IA tout en la critiquant. Nous mentons nous-mêmes dans nos interactions sociales quotidiennes tout en dénonçant le mensonge systémique. Nous participons à la société froide tout en aspirant à autre chose. Cette contradiction n’est pas résoluble au niveau individuel – elle est constitutive de notre situation historique. Elle invite toutefois à reconnaître et expliciter nos usages de l’IA et ne pas chercher à les dissimuler.

Ces stratégies individuelles ne résoudront évidemment pas les problèmes systémiques. Elles constituent cependant une forme de résistance quotidienne à ce qu’Adorno qualifierait de “réification technologique” de la pensée. En préservant notre capacité de doute, de questionnement et de réflexion critique, nous maintenons ouverte la possibilité d’une relation moins totalement instrumentale à la vérité, même dans un environnement technologique structuré par le mensonge.

L’enjeu ultime n’est pas de rejeter les outils – ce qui serait de toute façon une rupture impraticable avec la société –, mais de refuser la réification complète, de maintenir une distance critique. Face à l’IA, nous devons préserver ce qu’Adorno appelait la “conscience malheureuse” : la lucidité sur notre compromission nécessaire avec un système mensonger, tout en maintenant l’exigence d’autre chose. Rester des sujets pensants, même compromis, plutôt que de devenir des consommateurs entièrement réifiés d’intelligibilité préfabriquée.