Ne pas capituler

L’anthropomorphisation de l’IA, stratégie de pouvoir

L’anthropomorphisation de l’intelligence artificielle constitue l’une des mystifications les plus sophistiquées de notre époque. Loin d’être un simple glissement sémantique ou une commodité de langage, elle fonctionne comme une stratégie de pouvoir remarquablement efficace, comme l’avait pressenti Georges Canguilhem dès les débuts de l’informatique. Quand nous disons que “ChatGPT pense” ou que “l’IA a décidé”, nous participons à un tour de passe-passe idéologique qui fait disparaître les véritables acteurs humains derrière l’apparente objectivité de la machine.

Cette disparition n’a rien d’accidentel. Les choix de Sam Altman concernant les données d’entraînement, les garde-fous définis par OpenAI, le travail des annotateurs kényans payés deux dollars de l’heure pour filtrer les contenus toxiques – tout cela s’évapore dans la formule magique “l’IA a répondu”. Quand une décision controversée émerge, ce n’est plus Elon Musk ou Sam Altman qu’on peut tenir pour responsables, c’est “l’algorithme”, entité suffisamment abstraite pour désamorcer la colère et suffisamment complexe pour décourager l’examen critique. L’algorithme devient ainsi le bouc émissaire parfait d’un système qui dissimule ses véritables centres de décision.

Mais cette opération dépasse la simple déresponsabilisation. En présentant ces systèmes comme “intelligents” ou “conscients”, nous naturalisons les choix idéologiques qui les structurent. Les biais deviennent des “caractéristiques émergentes”, les décisions politiques se transforment en “propriétés du modèle”. Les différences entre ChatGPT et Grok, par exemple, ne relèvent pas de “personnalités” distinctes émergentes mais traduisent directement les valeurs de leurs créateurs, cristallisées dans le choix des données d’entraînement, les méthodes de filtrage, les objectifs d’optimisation et les instructions systémiques. L’humour sarcastique de Grok n’est pas une personnalité artificielle mais l’idéologie merdeuse de Musk encodée dans des matrices de poids.

L’expression “cerveau artificiel” illustre particulièrement bien cette mystification. Comme le notait Canguilhem, elle inverse la charge de la preuve. Au lieu de nous demander pourquoi nous devrions accepter qu’une corporation privée déploie des systèmes de manipulation textuelle massive, nous nous retrouvons à débattre de la conscience hypothétique de ces “cerveaux”. Pendant que philosophes et scientifiques s’interrogent sur la phénoménologie des machines, les questions politiques cruciales – qui contrôle ces systèmes, à quelles fins, avec quelles conséquences – passent au second plan.

Cette anthropomorphisation remplit simultanément plusieurs fonctions idéologiques. Elle opère d’abord une intimidation intellectuelle : si la machine est “plus intelligente”, qui sommes-nous pour questionner ses outputs ? L’autorité épistémique glisse ainsi subtilement des humains vers les machines. Elle fonctionne ensuite comme séduction affective : en humanisant les interfaces par des voix douces et des réponses empathiques simulées, elle crée une dépendance émotionnelle qui rend la critique plus difficile. Elle produit également un effet d’inévitabilité historique : si l’IA “évolue” et “apprend” comme un organisme vivant, son développement apparaît naturel et inéluctable plutôt que résultant de choix politiques et économiques contestables. Enfin, elle opère une captation de l’imaginaire : en monopolisant les métaphores de l’intelligence et de la conscience, elle empêche d’imaginer d’autres formes possibles de développement technologique.

Le débat sur “l’alignement de l’IA” offre un cas d’école de cette mystification. On parle d’aligner l’intelligence artificielle sur les “valeurs humaines” comme si ces valeurs étaient universelles et non pas celles, très spécifiques, d’une élite techno-capitaliste de la Silicon Valley. L’anthropomorphisation permet ainsi de transformer un problème politique – quelles valeurs privilégier – en problème technique – comment les implémenter. Cette conversion d’un modèle heuristique en machine de propagande, pour reprendre les termes de Canguilhem, ne sert pas seulement à dissimuler les responsabilités. Elle vise aussi à créer de nouveaux marchés comme la thérapie ou l’amitié par IA, à justifier des investissements colossaux, à préparer l’acceptation sociale de décisions automatisées et à court-circuiter la régulation démocratique.

La première forme de résistance à cette mystification consiste à nommer correctement ces dispositifs. Ce ne sont pas des “intelligences” mais des systèmes de traitement statistique, pas des “esprits” mais des produits industriels, pas des “agents autonomes” mais des outils contrôlés par des intérêts identifiables. Derrière chaque prétendue “décision de l’IA” se cache un conseil d’administration, derrière chaque “hallucination” un choix d’architecture, derrière chaque “biais” l’idéologie du grand capital. L’enjeu véritable n’est donc pas de savoir si les machines pensent, mais de comprendre qui pense à travers les machines et comment reprendre le contrôle social sur ces dispositifs qui façonnent de plus en plus notre réalité.​​​​​​​​​​​​​​​​