IA et risque existentiel #1
Dans les laboratoires feutrés de la Silicon Valley comme dans les amphithéâtres des plus prestigieuses universités, une question tourmente les esprits : l’intelligence artificielle sera-t-elle demain notre salut ou notre perte ?
Geoffrey Hinton, ce “parrain de l’IA” auréolé d’un prix Nobel, a quitté Google pour pouvoir parler librement. Son verdict ? Une chance sur 5 que nos créations nous effacent de la surface de la Terre d’ici 3 décennies. Certains de ses collègues, comme Nate Soares, ne cotisent même plus pour leur retraite, convaincus que notre civilisation n’atteindra jamais cet horizon.
Pourtant, d’autres voix s’élèvent. Une récente enquête auprès de 475 chercheurs révèle un scepticisme grandissant : 76% d’entre eux doutent que la simple augmentation de puissance de calcul suffise à faire émerger cette intelligence artificielle générale (IAG) qui nous égalerait ou nous surpasserait. “Les gains faciles sont derrière nous,” confirme Sundar Pichai de Google, tandis que les modèles de langage les plus récents montrent des signes de plafonnement malgré des investissements colossaux. Comment réconcilier ces visions contradictoires ? Faut-il craindre l’apocalypse ou démystifier une chimère technologique ?
Une première image en guise de réponse. Face à une montagne enneigée, un géologue pourrait vous dire : “Cette montagne est stable, les roches qui la composent sont là depuis des millions d’années.” Un expert en avalanches pourrait simultanément affirmer : “Cette montagne présente un risque mortel, la neige accumulée pourrait dévaler à tout moment.” Tous deux raison, ils observent simplement des phénomènes différents à des échelles temporelles distinctes.
C’est exactement ce qui se passe dans le débat sur l’IA. Les chercheurs qui doutent de la voie actuelle vers l’IAG et ceux qui craignent ses conséquences ne parlent pas forcément de la même chose, ni du même horizon temporel. Quand 76% des chercheurs expriment leur scepticisme, ils répondent à une question technique très précise : “La simple augmentation de la puissance de calcul suffira-t-elle ?” Leur réponse est non. Mais cela ne signifie pas que l’IAG est impossible : cela signifie que nous devrons probablement découvrir de nouveaux paradigmes, de nouvelles architectures, peut-être même de nouvelles mathématiques.
Autre image. En 1900, Lord Kelvin affirmait que “les machines volantes plus lourdes que l’air sont impossibles.” Trois ans plus tard, les frères Wright volaient. Kelvin avait tort sur la possibilité, mais il avait raison sur un point crucial : les approches de son époque étaient insuffisantes. Il a fallu une innovation conceptuelle — comprendre la portance aérodynamique — pour réussir. Quand Geoffrey Hinton parle de 30 ans, c’est une éternité en recherche scientifique : il y a 30 ans, en 1995, nous n’avions pas Google, pas de smartphones, et l’internet était balbutiant. Les réseaux de neurones étaient considérés comme une impasse académique — Hinton lui-même était marginalisé pour y croire encore.
Dernière image, la sécurité d’un barrage. Deux ingénieurs viennent vous voir. Le premier dit : “Le barrage actuel montre des signes de fatigue, mais il tiendra encore des années.” Le second ajoute : “Mais quand il cédera, ce sera catastrophique.” Que faites-vous ? Vous commencez les travaux de renforcement maintenant, justement parce que vous avez le temps. C’est exactement la position dans laquelle nous nous trouvons. Le ralentissement de la progression par mise à l’échelle nous offre un répit précieux — non pas pour nous relâcher, mais pour développer les garde-fous nécessaires. Les 82% de chercheurs favorables à un encadrement étatique de l’IAG comprennent cette dynamique.
Ces perspectives apparemment contradictoires sont donc en réalité complémentaires : nous avons plus de temps que les optimistes de la Silicon Valley ne le pensent pour développer une IA alignée sur les valeurs humaines, mais ce temps supplémentaire n’est pas infini, et les enjeux sont existentiels.
Reste le vrai problème : peut-on compter sur le système capitaliste pour construire les fondations éthiques, techniques et réglementaires d’une IA bénéfique à l’humanité entière ?