L’arrivée des grands modèles de langage est généralement présentée, dans le débat public, comme un sujet pour les programmeurs, les juristes ou les comptables. On parle peu de ses effets sur les producteurs de savoir eux-mêmes, c’est-à-dire sur ceux dont le métier consiste, depuis des siècles, à lire, à synthétiser, à conceptualiser et à transmettre. Pourtant, la rupture est profonde. Le monde académique vit en ce moment sa propre crise ‘Kodak’, mais ne semble pas en avoir conscience.

Un enseignant-chercheur consacre de longues années à faire essentiellement deux choses: assimiler la littérature scientifique de son domaine et écrire des articles fondés sur cette littérature. Et parfois un recueil empirique de données. C’est un investissement cognitif considérable. Cet investissement est normalement rentabilisé par un poste dans une grande école ou une université. La clé d’accès, c’est le doctorat qui requiert cinq à sept années de travail monacal. Tout le système de production des doctorats, des publications académiques et des recrutements universitaires repose sur le modèle érudition = valeur.
Or ce modèle se brise, au moins sur sa dimension la plus fondamentale. Que fait concrètement un chercheur qui veut publier ? Il établit une revue de littérature : l’IA en produit un premier état plus rapidement, et avec une couverture plus large. Il traite des données recueillies : l’IA le fait également plus rapidement. Il rédige l’article en respectant les codes de la revue ciblée : l’IA produit un premier jet acceptable en quelques minutes. Les contributions? Dix minutes en 5 itérations. L’abstract? Idem.
Cette substitution ne frappe naturellement pas tous les chercheurs de la même façon. Les sciences dures restent partiellement protégées par la paillasse et le laboratoire : tant qu’il faut manipuler des éprouvettes, calibrer des instruments, conduire des expérimentations physiques, le cœur du métier conserve une assise tangible que l’IA ne peut pas dématérialiser. La situation est plus contrastée dans les sciences humaines et sociales. Une partie d’entre elles produit des données primaires que l’IA ne peut pas générer. Mais une autre partie — celle qui travaille essentiellement sur des données existantes et qui produit de la conceptualisation à partir de la littérature — voit l’essentiel de son activité tomber dans le périmètre substituable.
Que reste-t-il alors qui ne soit pas substitué? Précisément ce que l’IA ne sait pas faire. Identifier un paradoxe. Formuler une question de recherche. Concevoir un protocole. Aller sur le terrain mener un entretien difficile, observer une situation organisationnelle, dépouiller des archives inédites. Construire des concepts, arbitrer des controverses, évaluer la validité d’une démarche, former et encadrer des doctorants, signer une interprétation et en assumer la responsabilité devant la communauté. Cette fonction de garantie — un chercheur identifié, méthodologiquement responsable, qui répond de ses erreurs — n’est pas réductible à la production de texte. Elle reste pleinement humaine. La valeur du chercheur est intacte sur ce périmètre. Elle se trouve simplement déplacée, et numériquement réduite, à la portion du métier que l’érudition livresque ne couvre pas.
Le problème, c’est que cette portion-là n’est pas celle sur laquelle le système académique a appris à fonctionner de manière dominante. Deux fragilités préexistantes l’ont rendue progressivement minoritaire dans la pratique réelle d’une part importante des chercheurs.
La première est l’isolement croissant. Au fil des décennies, le métier s’est replié sur lui-même : on publie pour des pairs, dans des revues produites et lues par les pairs, sur des sujets de plus en plus étroits, souvent ésotériques, dans une langue de plus en plus codée. Les liens avec les organisations réelles, les entreprises, les administrations, les terrains, se sont distendus jusqu’à devenir, pour une fraction non négligeable de la profession, ténus. Cet enfermement dans la théorie pure était déjà problématique avant l’IA. Il devient mortel avec elle, parce qu’il prive le chercheur du seul actif que l’IA ne sait pas produire : le jugement situé, la connaissance d’un terrain, la compréhension fine d’un contexte particulier.
La seconde est la réticence à enseigner. Dans le système tel qu’il s’est organisé, l’enseignement est souvent vécu comme une corvée qui détourne du « vrai » travail, la publication, qui détermine la carrière, produit des incitations institutionnelles. Pour ceux qui s’y résignent, l’impact pédagogique devient négligeable. Quand un étudiant peut désormais obtenir d’une IA une explication patiente, disponible et adaptée à son niveau, l’enseignant qui se contente du service minimum devient ouvertement substituable. Qu’apporte-t-il qu’un agent ne peut pas apporter?
Autrement dit, l’évolution du métier ces dernières années a conduit les chercheurs à se focaliser précisément sur le nœud de tâches les plus substituables par l’IA.
Face à cette situation, les chercheurs ne restent pas immobiles. Une véritable course à l’IA s’est engagée dans les laboratoires : ateliers, formations, séminaires sur « comment utiliser ChatGPT pour publier plus » ou « comment accélérer le traitement de ses données ». Mais cette énergie est mobilisée au service du modèle existant : produire plus d’articles, plus vite, dans les mêmes revues, selon les mêmes critères d’évaluation. C’est le réflexe de cramming (bourrage) que Clayton Christensen a décrit chez les acteurs en place confrontés à la rupture : intégrer la nouvelle technologie dans l’ancien modèle pour améliorer son efficacité plutôt que le repenser. L’analogie avec Kodak, incapable de se réinventer dans un monde digital, a ses limites, mais le mécanisme cognitif du fameux dilemme de l’innovateur est comparable: l’incumbent ne réagit pas à la rupture parce qu’il la lit à travers le prisme du modèle qu’elle est en train de défaire.
Il n’est pas exclu que les institutions parviennent à réagir, mais tout le système de recrutement, d’évaluation et de hiérarchies symboliques est conçu pour récompenser l’érudition et la production d’articles. Le piège est d’autant plus redoutable qu’il est invisible aux acteurs concernés. Un enseignant-chercheur qui a investi vingt ans pour devenir un spécialiste reconnu n’a aucun intérêt à reconnaître que la part automatisable de son métier est en train de croître à vue d’œil.
La question n’est donc pas : l’enseignant-chercheur va-t-il être remplacé ? La question, plus précisément, est: sur quoi repose désormais sa valeur, si son érudition livresque est banalisée, si son isolement du terrain l’empêche d’apporter une valeur ajoutée humaine, et si son désengagement pédagogique le rend remplaçable par une machine? La réponse existe — produire de la donnée originale, formuler des questions neuves, garantir la validité d’une méthode, accompagner des raisonnements, se plonger dans des situations réelles —, mais elle suppose de repenser profondément le métier, ce qui se heurte aux incitations actuelles.
Zone de danger
Mais une chose est certaine: les enseignants-chercheurs dont la valeur repose principalement sur ce qu’ils ont lu et synthétisé sont en danger — et ce d’autant plus que la part de leur activité tombe dans le périmètre substituable. Identifier cette part clairement pour réinventer son métier pendant qu’il en est encore temps est désormais indispensable pour tous les métiers de col blanc aujourd’hui, et les enseignants-chercheurs n’y échappent pas.
🔎 Pour aller plus loin sur le sujet, on pourra lire la série de trois articles du chercheur Alexander Kustov, très radicaux sur la question, le premier étant Academics need to wake up on AI.
🇬🇧 Une version en anglais de cet article est disponible ici
📬 Abonnez-vous pour être averti des prochains articles par mail (cliquez sur “Abonnez-vous” plus bas).
▶️ Retrouvez-moi sur LinkedIn ou sur X pour échanger sur cet article.
🎧 Vous pouvez également vous abonner au format podcast des articles via votre plateforme favorite: Apple Podcast – YouTube Music – Spotify – Amazon Music/Audible – Deezer
En savoir plus sur Philippe Silberzahn
Subscribe to get the latest posts sent to your email.
7 réflexions au sujet de « IA, rupture et automatisation: le monde académique est-il le prochain Kodak ? »
Merci Philippe, je commence ma semaine avec une lecture motivante qui va m’aider à renforcer encore plus ce qui domine ma motivation première au boulot, en déléguant la part du manager « passant » à l’IA, et me concentrer encore plus sur celle qui a du sens, le manager « passeur ». Ma part substituable grandit tous les jours, à mon grand bonheur d’ailleurs. Ma part incarnée la remercie.
Aider sa « part substituable » à faire son coming out doit faire partie des qualités du manager aussi. C’est une « urgence absolue » pour utiliser un terme à la mode ! 😉
La contradiction organisée demeure précieuse : elle oblige une proposition à rencontrer des objections, à préciser ses sources, à exposer ses méthodes et à répondre de ses affirmations. Mais elle ne devient pas, pour autant, une garantie absolue de lucidité. Une contradiction peut être méthodique sans avoir conscience de son propre raisonnement motivé. Elle peut valider ce qui respecte les critères d’un champ, tout en laissant invisibles les affects, les fidélités théoriques, les hiérarchies symboliques ou les découpages disciplinaires qui orientent déjà ce champ.
Il en va de même du découpage, de la validation et de la confrontation méthodique. Ils ne sont pas disqualifiés par cette limite ; ils sont situés par elle. Ils protègent contre l’arbitraire, mais ne suppriment pas l’interprétation. Ils éprouvent une proposition, mais toujours depuis un certain régime de valeur, de preuve et de visibilité. C’est pourquoi le TLE ne se pose pas contre l’exigence académique : il rappelle seulement que toute exigence de vérité gagne à rendre lisible ce qui l’oriente affectivement avant même qu’elle ne se formule comme jugement rationnel.
Le Triangle de Lucidité Émotionnelle est né hors du système académique. Cela ne le dispense pas de l’exigence de vérité ; cela l’oblige au contraire à rendre plus clairement compte de ses sources, de ses limites et de ses conditions de validité.
Parce qu’il a été largement formalisé avec l’aide d’une IA, il doit distinguer rigoureusement la force de sa formulation de la validité de ce qu’il permet de voir. Sa valeur ne tient pas à l’apparence d’un corpus, mais à sa capacité à rendre lisibles des situations vécues, à soutenir des décisions habitables, à recevoir la contradiction et à reconnaître ce qu’il n’épuise pas du réel.
Cette limite ne supprime pas la responsabilité de celui qui le signe, cela l’augmente. Elle n’empêche pas non plus de reconnaître ce que le travail académique apporte de précieux : la méthode, la contradiction organisée, la précision des sources, la patience de l’enquête et l’épreuve des pairs. Le TLE peut s’en inspirer sans prétendre se confondre avec lui.
Cette position évite deux pièges : le piège naïf — « l’IA m’a aidé, donc c’est nécessairement juste » — et le piège inverse — « l’IA m’a aidé, donc ce n’est pas légitime ».
Le TLE est peut-être une production nouvelle. Mais il doit prouver qu’il est davantage qu’une production textuelle réussie : un cadre capable d’éclairer l’expérience, d’accepter l’épreuve, et de rendre compte de ses propres limites.
L’IA ne rend pas le chercheur inutile. Elle rend insuffisante la définition ancienne de sa valeur. Ce qui comptait comme preuve d’excellence — avoir beaucoup lu, savoir synthétiser, écrire dans les formes académiques — devient une compétence augmentée, imitée, accélérée, parfois industrialisée. Dès lors, la valeur se déplace vers ce qui ne se simule pas facilement : le terrain, la question juste, la méthode tenue, l’interprétation responsable, la transmission réelle, et la capacité à répondre de ce que l’on avance. C’est courageux et admirable de votre part de le dire.
C’est là différence entre les données complexes et les données compliquées
DCG
je crains que ça ne soit beaucoup plus … complexe que ça