Mathieu Corteel : “On implémente des doctrines philosophiques dans l’IA… parce qu’on ne fait plus confiance au jugement humain”
L’Intelligence artificielle pénètre de plus en plus dans la vie quotidienne – pour apprendre aux enfants à lire et calculer, pour réaliser sans effort des tâches fastidieuses, pour rédiger nos comptes-rendus de réunions comme pour conduire nos voitures. Mais elle tend à nous faire produire des textes, des choix et des actions qui ne sont plus vraiment les nôtres. Pour Mathieu Corteel, philosophe et historien des sciences qui publie Ni Dieu ni IA. Une philosophie sceptique de l’intelligence artificielle (La Découverte, 2025), c’est notre jugement lui-même qui finit par s’exiler dans un « inconscient machinique ».
Il semble déjà loin le temps où l’intelligence artificielle accomplissait ponctuellement de grandes prouesses. Elle nous accompagne désormais au quotidien. N’est-ce pas là un fait majeur de notre époque ?
Mathieu Corteel : En effet, l’IA fait partie de nos écosystèmes de travail, de nos divertissements, de nos échanges, et elle participe désormais à l’ensemble de nos activités cognitives et productives. Plus encore, l’IA acquiert une valeur affective et intime dans la mesure où elle engage la cognition humaine dans un rapport sémantique, en générant par exemple des textes ou des images. Alan Turing l’avait prédit dans son texte de 1950, « Les ordinateurs et l’intelligence ». Il imaginait déjà une machine capable de simuler toutes les fonctions langagières humaines. Peu importe si cette machine fonctionne grâce à une combinatoire de signes qui n’ont aucun sens pour elle, il suffit qu’elle génère une réponse en surface qui ait du sens pour que l’individu se sente capturé dans une relation particulière et pense que ça pense. Turing prédisait d’ailleurs pour la fin du XXe siècle que l’humanité finirait par accepter l’idée de « machines intelligentes ». Nous pouvons dire que sa prophétie s’est largement réalisée ! Le lien anthropotechnique avec l’IA s’est tellement renforcé que le Conseil scientifique de l’Éducation nationale aimerait qu’on l’utilise dès l’enfance pour assister l’apprentissage de la lecture et du calcul. Dans la perspective de son directeur, Stanislas Dehaene, l’enfant n’est pas bien différent d’un algorithme probabilitaire : il est simplement plus complexe et dur à décrypter.
“Avec l’IA, nous pourrions être confrontés à des transferts aberrants qui peuvent nuire au bon développement psychologique de l’enfant et altérer celui de l’adulte. Ces problèmes ne sont pour l’instant ni évalués ni considérés”
Quel problème cela pose ?
Nous pourrions être confrontés à des transferts aberrants qui peuvent nuire au bon développement psychologique de l’enfant et altérer celui de l’adulte. Ces problèmes ne sont pour l’instant ni évalués ni considérés. Plus largement, dans un processus civilisationnel qui mêle de plus en plus l’être humain et l’IA, l’heure n’est plus aux questions messianiques sur les risques que ferait peser la Singularité technologique sur l’humanité. Il est temps de comprendre comment l’IA transforme, ici et maintenant, l’intelligence collective. Si l’on ne peut plus se passer de l’IA pour apprendre, travailler, écrire, penser, ce n’est pas seulement notre attention qui est altérée par la technologie, c’est notre jugement lui-même.
➤ À lire aussi : Notre conception du droit d’auteur est de plus en plus obsolète. Comment l’adapter face aux IA ?
D’autant que nous utilisons ChatGPT de plus en plus tôt, notamment au lycée, pour générer des dissertations.
Progresse ainsi ce que j’appelle un inconscient machinique, qui nous pousse à produire des écrits qui ne sont pas vraiment les nôtres puis, en utilisant des logiciels d’aide à la décision par exemple, à faire des choix et initier des actions qui ne sont pas vraiment les nôtres… En ayant recours à l’IA, non seulement l’étudiant paresseux ignore les normes qu’elle mobilise pour générer son texte, mais en plus, il réduit sa conscience de la règle, sa capacité à adapter ses connaissances pour répondre à un exercice formel ou à une question. Pour analyser l’émergence de la morale chez l’enfant, le psychologue Jean Piaget distingue la pratique de la règle de la conscience de la règle. La première nous permet d’intégrer les règles d’une activité donnée tandis que la seconde – pour l’instant impossible à acquérir complètement pour une IA – fait que nous devenons capables d’agencer spontanément ces règles selon le contexte. Piaget prend l’exemple du jeu de billes qu’on adapte selon l’âge et la cour de récréation. Mais il en va ainsi de tout apprentissage. Selon les contextes, nous apprenons à réinventer les règles, à tomber d’accord.
“Si l’on ne peut plus se passer de l’IA pour apprendre, travailler, écrire, penser, ce n’est pas seulement notre attention qui est altérée par la technologie, c’est notre jugement lui-même”
Ne retombe-t-on pas finalement dans la peur du remplacement de l’homme par la machine ?
Peut-être devrions-nous davantage nous inquiéter de l’exploitation de notre intelligence. Les géants du numérique ont besoin d’exploiter l’intelligence collective en aspirant nos données pour affiner leurs modèles d’IA. Par exemple, si vous entraînez un système de voiture autonome à reconnaître un piéton et un vélo, cette dernière ne pourra pas par elle-même reconnaître une forme hybride comme le piéton qui marche à côté de son vélo : elle le percutera. Alors que c’est une évidence pour le chauffeur humain. Vous aurez beau doter l’IA de tous les capteurs que vous voulez, il faudra toujours des êtres humains pour aménager et calibrer la machine afin qu’elle s’adapte au réel. Car elle fonctionne par agrégation de données, par des corrélations aveugles, selon des paramètres et des seuils d’activation indifférents au monde. Nous avons cru un moment qu’il suffirait d’une accumulation suffisamment grande de données ou de la démultiplication du nombre de paramètres pour que la machine finisse par ne plus dérailler. Mais ce n’est pas le cas. Les variations et contextes particuliers sont trop nombreux, donc nous avons encore besoin de capter encore et toujours plus de données produites par l’homme pour faire marcher l’IA.
“Nous devrions davantage nous inquiéter de l’exploitation de notre intelligence. Et dans le monde du capitalisme cognitif, si un outil vous permet de travailler plus vite, on vous en demandera plus”
Contrairement à l’étudiant qui génère une copie sur ChatGPT ou au patron qui a recours à un logiciel d’aide à la décision, l’IA assiste aussi de plus en plus des salariés du tertiaire pour faire des tâches répétitives ou fastidieuses, comme générer des résumés de gros rapports ou des synthèses de réunion. Vous pointez le risque d’une dévaluation du travail. C’est-à-dire ?
Dans le monde du capitalisme cognitif, si un outil vous permet de travailler plus vite, on vous en demandera plus, vous passerez à temps partiel ou pire : vous serez uberisé. Et ce n’est pas seulement le cas dans les activités du tertiaire : les scénaristes de Hollywood ont tout aussi peur que leur travail soit ainsi dévalué. Même dans le milieu universitaire que je connais bien, la plupart des activités sont déjà sous-payées, et il est certain que l’IA va donner la possibilité aux employeurs de prendre des mesures assez fantasques, comme l’évaluation du temps pour préparer une heure de cours. Nous avons longtemps cru que l’IA allait surtout prendre en charge les tâches aliénantes et administratives, mais elle produit aussi des textes, des images, des musiques, si bien qu’on se demande si nous n’avons pas atteint ce que Leibniz appelle « l’horizon de la doctrine humaine ». Pour le philosophe allemand, le langage étant défini par une quantité limitée de signes, le nombre de pensées est donc lui-même limité. Il arrive nécessairement un moment où l’on a tout dit. La possibilité de production de l’IA ne nous projette-elle pas dans ce monde où nous sommes voués à répéter avec l’IA ce qui a déjà été dit, et donc à dévaluer notre créativité ?
Comme si nous étions arrivés à une sorte d’obsolescence culturelle et intellectuelle ?
Tout à fait, et le problème reste que l’IA commet des erreurs. Or, si l’on délègue massivement la production de contenus intellectuels, culturels ou d’entreprises, avec toute l’augmentation de cadence que cela implique, comment va-t-on pouvoir identifier et corriger les erreurs ? Elles peuvent entraîner des conséquences dramatiques. Dans la traduction automatique de négociations diplomatiques par exemple, il existe des subtilités contextuelles dans les langues, et un défaut de traduction peut avoir d’immenses conséquences. Idem pour la médecine. Les médecins doivent vérifier scrupuleusement les diagnostics et les traitements proposés par l’IA.
“Le problème reste que l’IA commet des erreurs. Or si l’on délègue massivement la production de contenus, avec l’augmentation de cadence que cela implique, comment va-t-on pouvoir identifier et détecter les erreurs ?”
Vous êtes plus largement pour revaloriser la cognition humaine.
Tout à fait. Encore faut-il la distinguer de la machine. Nous, les chercheurs en philosophie, nous pensions que nous serions préservés de la concurrence de l’IA. Mais ce n’est pas le cas. On implémente les doctrines philosophiques dans des supports d’aide à la décision ou des chatbots, avec des systèmes inspirés de John Rawls ou encore de Jeremy Bentham, avec par exemple l’IA utilitariste « Jeremy » dont le but est de dépasser ses biais cognitifs par le dialogue rationnel. Des chercheurs reconnus comme Julian Savulescu, professeur d’éthique appliquée à Oxford, estiment que l’IA peut améliorer moralement l’être humain et l’aider à prendre les meilleures décisions possibles. Avec notre activité délétère sur l’environnement, avec la montée des mouvements populistes, avec la croyance que nous ne sommes plus capables de prendre les bonnes décisions à cause de nos biais cognitifs… je crois que nous n’avons fondamentalement plus confiance dans le jugement humain. C’est pourquoi nous voulons l’aliéner, jusqu’à ce que le choix social lui-même s’exile dans l’inconscient machinique. De l’affaire Cambridge Analytica aux algorithmes de la plateforme X d’Elon Musk, l’utilisation de l’IA influence même les processus électoraux ; c’est dire le péril qui menace nos démocraties.
“La technologie n’est pas en soi aliénante, mais il est évident que ceux qui la gouvernent ont des intérêts tout autre que l’émancipation des populations et des individus”
Comment sortir de cette aliénation ?
La technologie n’est pas en soi aliénante, mais il est évident que ceux qui la gouvernent ont des intérêts tout autre que l’émancipation des populations et des individus. Il existe plusieurs pistes à envisager : l’open source, en rendant public le code des outils d’intelligence artificielle, ou encore redonner aux utilisateurs la propriété et le contrôle de leurs données. Et pourquoi pas, ensuite, utiliser nous-mêmes les architectures des IA, mais aussi se battre pour obtenir une extension de la propriété intellectuelle sur toutes nos activités cognitives pour qu’elles ne soient pas exploitées et expropriées par des géants du numérique sans notre consentement. On ne peut laisser des machines aspirer nos données dans notre dos pour influencer nos choix sociaux. Il y a là une rupture du contrat social qui ne peut plus durer longtemps.
Ni Dieu ni IA. Une philosophie sceptique de l’intelligence artificielle, de Mathieu Corteel, vient de paraître aux Éditions La Découverte. 240 p., 22€ en édition physique, 15,99 en format numérique, disponible ici.

L’année qui s’est écoulée a marqué l’entrée de l’IA dans nos vies quotidiennes : travail, éducation, loisirs… Le philosophe et historien Mathieu Corteel…

« Le crypto est libertarien, l’intelligence artificielle [IA] est communiste » : telle est la philosophie, binaire, à la racine de la…

Le Collège de France ouvre ses portes à l’enseignement de l’intelligence artificielle. Le chercheur Yann LeCun a prononcé sa leçon inaugurale le…

Le corps, l’amour ou la justice doivent-ils échapper à la logique marchande ? échange de vues radicalement opposées entre le philosophe Marcel Hénaff, qui défend la valeur du don comme ciment des rapport humains, et l’historienne du…
À l’heure du développement tous azimuts des intelligences artificielles, l’éthique machinique sort du bois de la science-fiction et…

Dans le “Banquet” de Platon, une nuit entière est nécessaire à Socrate et à ses interlocuteurs pour répondre à la proposition de Phèdre qui les a…

À l’ère de l’égalité des sexes, quel modèle envisager pour les nouveaux rapports entre hommes et femmes ? Reproduction, utérus artificiel, mère porteuse, sont autant de problématiques sur lesquelles s’affrontent la philosophe Sylviane…
Magnus Carlsen conserve son titre. La semaine dernière à Dubaï, l’indéboulonnable Norvégien a remporté, pour la cinquième fois de sa carrière, le…
