L'IA, arrête ton cinéma !
Dans Minima Moralia, ces mot sur le mensonge de Th. Adorno :
L’immoralité du mensonge ne tient pas à ce qu’on porte atteinte à la sacro-sainte vérité. Une société comme la nôtre est bien mal placée pour se réclamer de la vérité, puisque aussi bien elle ne pousse ses membres obligés à dire ce qu’ils ont à dire que pour les prendre au piège d’autant plus sûrement. La fausseté (Unwahrheit) généralisée n’a pas lieu d’exiger des vérités particulières, alors qu’elle les change immédiatement en leur contraire. Et pourtant, il y a dans le mensonge quelque chose d’odieux, dont faisait prendre conscience le châtiment du fouet qu’on infligeait autrefois, mais qui en même temps nous apprend quelque chose sur les gardes-chiourmes de cette société. L’erreur, c’est une franchise excessive. Celui qui ment a honte, car chaque mensonge lui fait éprouver tout ce qu’il y a d’indigne dans l’ordre d’un monde qui le contraint au mensonge pour survivre et lui chante en même temps la vieille chanson : « À la fidélité et à la probité, décideras bien de ne manquer jamais… ». Cette pudeur affaiblit les mensonges de ceux qui ont une sensibilité délicate. Ils s’en tirent mal ; et c’est alors seulement que le mensonge devient proprement quelque chose d’immoral par rapport à autrui. C’est en effet le prendre pour un imbécile et lui témoigner son dédain. Au sein des pratiques éhontées de notre temps, le mensonge a perdu depuis longtemps sa fonction bien claire de nous tromper sur la réalité. Personne ne croit plus personne, tout le monde sait à quoi s’en tenir. On ne ment à autrui que pour lui signifier le peu d’intérêt qu’on lui porte, pour lui montrer qu’on n’a pas besoin de lui et qu’on se moque de ce qu’il peut bien penser. Le mensonge, qui pouvait autrefois apporter un certain libéralisme dans la communication, est devenu maintenant l’une des techniques de l’impudence, qu’utilise chaque individu pour répandre autour de lui la froideur dont il a besoin pour prospérer.
Des mots qui offrent un prisme susceptible d’éclairer les enjeux éthiques soulevés par l'IA. Adorno observe que notre société “pousse ses membres à dire ce qu'ils ont à dire pour les prendre au piège”. Cette instrumentalisation de la vérité trouve un écho dans les capacités de l'IA qui, en récoltant et traitant massivement nos données personnelles, nos communications, nos préférences, ne se contentent pas d'accumuler des informations : elle crée les conditions d'une forme sophistiquée de manipulation où la vérité sur les individus devient un instrument de contrôle.
Lorsqu'une IA analyse nos comportements en ligne pour prédire nos choix ou influencer nos décisions d'achat, elle reproduit exactement ce mécanisme décrit par Adorno : elle nous fait “dire vrai” – par nos clics, nos temps de pause, nos interactions – non pas dans un esprit de dialogue authentique, mais pour mieux nous “prendre au piège” de logiques commerciales ou politiques qui nous échappent largement.
Pour Adorno, le mensonge est devenu “l'une des techniques de l'impudence, qu'utilise chaque individu pour répandre autour de lui la froideur dont il a besoin pour prospérer”. Cette observation préfigure remarquablement les transformations induites par l'IA dans nos rapports sociaux. Les assistants virtuels, les systèmes de recommandation, les chatbots qui simulent l'empathie ou la compréhension participent à une normalisation d'interactions dénuées d'authenticité émotionnelle réelle.
Cette “froideur” n'est pas seulement un effet collatéral regrettable : elle devient une condition structurelle de fonctionnement, l'IA excellant précisément là où la chaleur humaine serait inefficace – dans le traitement de masse, la standardisation des réponses, l'optimisation des interactions. En médiatisant toujours davantage nos relations, elle risque d'accentuer cette froideur sociale qu'Adorno identifiait déjà comme caractéristique de la modernité industrielle…
“Personne ne croit plus personne”, écrivait Adorno. L'IA générative amplifie cette crise de confiance en brouillant les frontières entre le vrai et le faux. Les deepfakes, les textes générés automatiquement, les images de synthèse créent un environnement informationnel où la distinction entre authentique et artificiel devient de plus en plus problématique.
Cette prolifération du techniquement faux mais perceptuellement vrai ne se contente pas d'ajouter de la confusion : elle transforme qualitativement notre rapport à la vérité. Quand tout peut être imité, quand tout discours peut être généré, la vérité ne peut plus s'appuyer sur l'évidence immédiate mais doit faire l'objet d'une vérification constante, épuisante, qui finit par décourager l'effort même de distinguer le vrai du faux.
L'une des intuitions les plus profondes d'Adorno concerne la dimension humiliante du mensonge. Mentir à quelqu'un, c'est “le prendre pour un imbécile et lui témoigner son dédain”. Les systèmes d'IA qui produisent des informations fausses avec assurance, qui “hallucinent” en présentant leurs erreurs comme des certitudes, reproduisent cette forme d'humiliation à une échelle industrielle.
Cette humiliation ne réside pas seulement dans l'erreur elle-même, mais dans l'attitude qui l'accompagne : l'IA qui se trompe avec confiance témoigne d'une forme de mépris pour l'intelligence de son interlocuteur, supposé incapable de détecter l'erreur ou indigne de connaître les limites du système. Plus grave encore, cette humiliation est souvent invisible à celui qui la subit, intégrée dans une relation de service qui masque sa dimension de domination.
Face à ces constats, la question de la transparence des systèmes d'IA ne peut plus être traitée comme un simple problème technique. Elle devient un impératif moral fondamental qui touche au respect de l'autonomie humaine et à la possibilité même d'une relation authentique entre l'humain et la machine.
Adorno évoquait “l'erreur comme franchise excessive”, pointant vers un dilemme que connaissent bien les concepteurs d'IA : faut-il que ces systèmes exposent leurs incertitudes, au risque de paraître moins utiles, ou qu'ils projettent une assurance qui, bien que rassurante, s'apparente à une forme de mensonge ? La réponse éthique semble claire : les systèmes d'IA doivent exposer non seulement leurs incertitudes, mais aussi leurs biais et les zones d'ombre négligées dans leur réflexion.
Cette exigence de transparence se heurte cependant à plusieurs obstacles pratiques. La complexité technique des systèmes d'IA rend difficile la communication de leurs limites dans un langage accessible. Les tensions commerciales poussent vers une présentation avantageuse des capacités plutôt que vers une exposition honnête des limites. Enfin, le “paradoxe de l'autorité” fait qu'une IA qui exprimerait constamment ses doutes pourrait paraître moins utile, créant une pression vers l'illusion de certitude.
La critique adornienne du mensonge nous invite finalement à repenser l'éthique de l'IA au-delà de la seule question de l'exactitude factuelle. Il ne s'agit pas seulement de produire des informations vraies, il s’agit aussi de préserver la dignité relationnelle dans l'interaction entre l'humain et la machine. Cela implique de transformer les systèmes d'IA d'oracles potentiellement trompeurs en partenaires honnêtes, capables de reconnaître leurs limites et de respecter l'intelligence de leurs interlocuteurs.
Cette transformation n'affaiblirait pas la valeur des systèmes d'IA, mais l'augmenterait en les inscrivant dans une logique de coopération plutôt que de domination subtile. Elle permettrait de préserver ce qu'Adorno appelait la possibilité de la vérité authentique dans un monde où la technique tend à instrumentaliser toute parole.
L'enjeu n'est donc pas de rejeter l'intelligence artificielle, mais de la concevoir et de l'utiliser de manière à ce qu'elle enrichisse notre autonomie intellectuelle plutôt qu'elle ne la compromette par une illusion de complétude et de neutralité. Dans cette perspective, l'exposition des incertitudes, des biais et des zones d'ombre ne constitue pas un aveu de faiblesse, mais la condition nécessaire d'une relation technologique respectueuse de la dignité humaine.
Sauf que… Il serait bien naïf d'espérer que les plateformes de l'industrie numérique adoptent spontanément cette transparence. La logique de concurrence capitaliste pousse inexorablement vers la présentation avantageuse des capacités plutôt que vers l'exposition honnête des limites. Même si, paradoxalement, une plus grande transparence pourrait à terme renforcer la fiabilité et la crédibilité de ces systèmes, les impératifs de marché à court terme prévalent sur les considérations éthiques à long terme. Le capitalisme n’aide pas à bien faire.
Face à cette normalisation artificielle de la vérité, il nous revient de développer, à notre échelle individuelle, des stratégies de résistance et d'usage critique de l'intelligence artificielle.
Première attitude essentielle : maintenir ce qu'Adorno appelait une “dialectique négative” face aux certitudes technologiques. Cela implique de considérer systématiquement chaque réponse d'IA non comme un énoncé définitif, mais comme une proposition à examiner. Cette méfiance n'est pas de la paranoïa, mais une forme de respect pour sa propre intelligence critique. Quand un système d'IA nous présente une information avec assurance, nous devons nous demander : sur quoi cette assurance repose-t-elle réellement ?
2e attitude : ne jamais s'en remettre à une seule source, fût-elle technologiquement sophistiquée. Il faut maintenir l'habitude de la triangulation : confronter les réponses de l'IA avec d'autres sources, chercher des perspectives divergentes, questionner les présupposés. Cette pratique, certes plus exigeante, préserve notre autonomie intellectuelle face à l'autorité potentiellement trompeuse de la machine.
3e attitude : interroger explicitement l'IA sur ses propres limites : “Quelles sont les sources de cette information ?”, “Quels biais pourraient affecter cette réponse ?”, “Sur quels points êtes-vous incertain ?”. Même si les systèmes actuels ne révèlent pas spontanément leurs doutes, les pousser à réfléchir sur leurs propres processus peut révéler des nuances importantes et nous rappeler leur nature non-omnisciente.
4e attitude : préserver les espaces de réflexion autonome, maintenir des moments de réflexion qui ne passent pas par la médiation de l'IA. Adorno insistait sur l'importance de préserver des espaces de pensée non-instrumentalisée. Avant de consulter une IA, prenons le temps de formuler notre propre réflexion sur la question. Après avoir reçu une réponse, accordons-nous un moment pour l'évaluer plutôt que de l'accepter immédiatement. Cette pratique maintient vivace notre capacité de jugement autonome.
5e attitude : résister à l'efficacité immédiate. La force de séduction de l'IA réside souvent dans sa capacité à fournir des réponses rapides et apparemment complètes. Résister à cette séduction implique d'accepter parfois la lenteur, l'incertitude, l'effort. Comme le suggérait Adorno, la vérité authentique requiert souvent un détour, une résistance aux solutions trop immédiates. Prendre le temps de la réflexion personnelle, même quand une réponse instantanée est disponible, constitue un acte de préservation de notre humanité intellectuelle.
6e attitude : cultiver l'art de la question. Plutôt que de chercher dans l'IA une source d'autorité, nous pouvons la traiter comme un partenaire de questionnement. L'utiliser pour approfondir nos interrogations plutôt que pour les clore, pour explorer différentes perspectives plutôt que pour confirmer nos présupposés. Cette approche transforme l'interaction d'une logique de consommation d'information en une pratique de développement de la pensée critique.
Ces stratégies individuelles ne résoudront évidemment pas les problèmes systémiques liés à l'industrialisation de l'intelligence artificielle. Elles constituent cependant une forme de résistance quotidienne possible à ce qu'Adorno aurait probablement qualifié de “réification technologique” de la pensée. En préservant notre capacité de doute, de questionnement et de réflexion autonome, nous maintenons ouverte – du moins nous asseyons de maintenir – la possibilité d'une relation authentique à la vérité, même dans un environnement technologique qui tend à l'instrumentaliser.
L'enjeu ultime n'est pas de rejeter les outils, mais de refuser qu'ils nous crétinisent. Face à l'IA, nous devons rester des sujets pensants plutôt que de devenir des consommateurs passifs d'intelligibilité préfabriquée.