Appuyez sur “Entrée” pour passer au contenu

L’IA et la connaissance : une rupture sans retour ?

L’arrivée de l’intelligence artificielle générative dans le quotidien d’une large part de la population marque davantage qu’un changement d’outil. Elle interroge quelque chose de plus fondamental : notre rapport à la connaissance elle-même, non seulement à sa transmission, mais à sa production. La thèse défendue ici est que l’IA ne menace pas tant ce que nous savons, que notre capacité collective à savoir autrement, à critiquer l’existant et à le dépasser. Ce risque ne touche pas uniformément toutes les disciplines : il frappe d’abord les sciences humaines, et c’est précisément là que réside le paradoxe le plus troublant d’une civilisation qui s’arme technologiquement tout en se désarmant intellectuellement.

On aurait tort de réduire l’IA à une simple amélioration des moteurs de recherche. La différence est qualitative. Googler une information, c’est encore naviguer parmi des sources contradictoires, évaluer, trier, reformuler. Demander à un modèle de langage, c’est recevoir une réponse synthétisée, lissée, prête à l’emploi. La friction cognitive, ce léger effort qui force à s’approprier l’information, a disparu.

C’est la première rupture : une transformation du rapport à la recherche d’information. Mais il en existe une seconde, plus profonde, qui touche à la façon dont nous abordons une tâche intellectuelle. Avec l’IA, la tentation est désormais structurelle : demander à la machine de faire à notre place. Non par paresse, mais parce que c’est devenu rationnel. Pourquoi passer des heures à rédiger une synthèse quand un modèle produit en trente secondes un texte correct, cohérent, et indiscernable d’un travail humain ordinaire ?

Ces deux ruptures se renforcent mutuellement. Et c’est leur conjonction qui rend la situation inédite, plus radicale par exemple, que l’adoption de la calculatrice, qui supprimait le calcul mécanique mais laissait intact le raisonnement mathématique. Ici, c’est le raisonnement lui-même qui est sous-traité.

 

Pour mesurer ce que cela implique, il faut rappeler la structure de la production de connaissance. Produire une pensée nouvelle, philosophique, sociologique, historique, suppose d’abord de maîtriser suffisamment le corpus existant pour le questionner. On ne critique efficacement Hegel que si on l’a réellement lu. On ne dépasse Keynes qu’en ayant compris ce qu’il résout et ce qu’il laisse ouvert. L’apprentissage n’est pas une étape préalable à la pensée : il en est la condition.

Or c’est précisément cet apprentissage que l’IA court-circuite. Quand un lycéen délègue sa dissertation, il ne manque pas seulement une occasion de travailler : il manque l’occasion de se confronter à une difficulté, de chercher, de se tromper, de recommencer. Ces micro-expériences d’effort sont ce par quoi la connaissance devient opératoire, mobilisable, critique.

La question que les professeurs subissaient hier, « à quoi me servira le logarithme dans la vie ? » est désormais doublée d’une question plus radicale : « à quoi me sert d’apprendre, si l’IA peut me donner n’importe quelle réponse instantanément ? ». Cette question n’est pas absurde. La réponse sérieuse, c’est que la connaissance ne sert pas seulement à produire des réponses, elle sert à former le type de penseur capable de poser les bonnes questions.

Toutes les disciplines ne sont pas exposées de la même façon à ce risque. Il faut ici introduire une distinction qui est au cœur du problème.

Les sciences dures, mathématiques, biologie, physique ou chimie, bénéficient déjà, et bénéficieront de plus en plus, d’une accélération sans précédent de leur production. Les capacités de calcul, de modélisation et d’analyse des données qu’offre l’IA sont des multiplicateurs de puissance pour le chercheur en sciences naturelles. AlphaFold a résolu en quelques années un problème de repliement des protéines que la communauté scientifique n’avait pas réussi à résoudre en cinquante ans. Les sciences dures ont une structure cumulative et formalisable que l’IA peut amplifier sans dénaturer.

Les sciences humaines et sociales fonctionnent différemment. Leur matière première, c’est l’interprétation : des textes, des contextes, des intentions, des contradictions. Leur méthode, c’est le doute, la relecture, la mise en tension des théories avec les faits. L’IA peut produire des synthèses plausibles de n’importe quel corpus — mais elle ne peut pas être surprise par lui. Elle ne ressent pas le choc d’une idée qui contredit ce qu’elle croyait savoir. Elle ne remet pas en cause ses propres cadres d’analyse. Or c’est précisément ce choc, cette surprise intellectuelle, qui est le moteur de la pensée critique.

Si les chercheurs en SHS forment leurs étudiants à déléguer l’effort de lecture et de synthèse à une IA, ils tarissent la source même de ce qui fait avancer leur discipline. Le risque n’est pas que l’IA produise de mauvaises réponses, c’est qu’elle produise de bonnes réponses à des questions déjà posées, sans jamais poser de nouvelles questions. La connaissance tournerait en rond, confortable et stérile.

Il existe un paradoxe que l’on n’a pas encore suffisamment remarqué : les modèles de langage sont entièrement formés sur la production intellectuelle humaine passée. Ils ne génèrent rien d’autre que des recombinaisons probabilistes de ce que les humains ont déjà écrit, pensé, théorisé. Si l’IA tarit progressivement la production de connaissance humaine nouvelle, parce que les humains s’en remettent à elle pour penser à leur place, alors elle appauvrit la source dont elle se nourrit.

On peut formuler cela ainsi : une civilisation qui cesse de produire de la pensée originale fournit à ses IA des données d’entraînement de moins en moins riches. Le modèle se referme sur lui-même, recombinant indéfiniment les mêmes schémas. C’est ce qu’on pourrait appeler une pensée en vase clos, non pas par manque d’intelligence, mais par manque d’altérité intellectuelle. L’IA ne peut pas se contredire elle-même de façon féconde : seuls les humains, avec leurs désaccords, leurs angles morts, leurs intuitions irrationnelles, peuvent l’y forcer.

Thomas More, dans l’Utopie (1516), décrivait une société imaginaire régie par la rationalité et l’organisation scientifique. Son objectif n’était pas d’en faire l’éloge mais d’en révéler l’inhumanité : une société parfaitement calculée est une société où il ne se passe plus rien, où l’histoire est suspendue, où l’imagination n’a plus de prise. Le titre même, « Utopie », du grec ou-topos, le lieu qui n’existe pas, signalait l’impossibilité fondamentale de ce projet.

Nous sommes peut-être en train de construire, sans le vouloir, quelque chose qui ressemble à cette utopie. Non pas une société parfaite, mais une société technologiquement supérieure et intellectuellement appauvrie. Le risque n’est pas la dystopie brutale des romans de science-fiction : il est celui, plus insidieux, d’une régression douce, confortable, presque imperceptible.

« Nous avons inventé le bonheur, disent les Derniers Hommes, en clignant de l’œil. » — Nietzsche, Ainsi parlait Zarathoustra

Les Derniers Hommes de Nietzsche ne sont pas misérables : ils sont satisfaits. C’est précisément ce qui les condamne. Une civilisation qui cesse de s’interroger sur ce qu’elle ne sait pas encore n’est pas une civilisation en crise, c’est une civilisation à l’arrêt.

 

La question n’est pas de savoir si l’IA représente un danger en soi — elle n’est qu’un outil, sans valeur morale intrinsèque. La question est de savoir ce que nous choisissons d’en faire, et ce que nous choisissons de préserver malgré elle.

Ce qu’il faut préserver, c’est l’inconfort de l’apprentissage. Le temps long de la lecture difficile. La frustration de ne pas comprendre immédiatement. La nécessité de reformuler avec ses propres mots ce qu’on vient d’assimiler. Ce sont ces expériences, en apparence inefficaces, qui forment des esprits capables de critiquer, et donc de renouveler, la connaissance établie.

Cela suppose des choix pédagogiques délibérés, des institutions qui résistent à la tentation de l’optimisation à court terme, et une réflexion collective sur ce que nous voulons transmettre. Non pas des réponses, l’IA s’en chargera, mais la capacité à poser des questions que personne n’a encore posées.

C’est peut-être la seule chose que les machines ne pourront jamais faire à notre place.

Partagez ce contenu via ...

Soyez le premier a laisser un commentaire

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *