← Retour au Bulletin
Les universitaires doivent se réveiller sur l'IA, deuxième partie

Les universitaires doivent se réveiller sur l'IA, deuxième partie

Déclaration à l’attention de mes amis sur Bluesky : cet article est 100 % écrit par un humain (assisté de résumés IA vérifiés par l’auteur de vos critiques de mon article précédent). Des erreurs humaines sont possibles.

Plus tôt cette semaine, j’ai soutenu que les universitaires doivent se réveiller sur l’IA et proposé dix thèses sur la façon dont l’IA agentique transforme la recherche en sciences sociales. L’article est devenu viral, surtout après que j’ai révélé qu’il avait été entièrement généré et publié par une IA, ce qui a conduit à des articles de presse, plus d’un million de vues et plus d’un millier de réponses (souvent en colère, mais aussi enthousiastes) sur diverses plateformes de réseaux sociaux.

Avec le recul, j’aurais dû faire certaines choses différemment. Premièrement, révéler que Claude avait écrit l’article original (même à partir de mes écrits antérieurs sur les réseaux sociaux) comme une suite impertinente était une erreur. Cela a détourné l’attention du fond et donné aux critiques une raison facile de rejeter les arguments. J’aurais plutôt dû être transparent dès le départ sur ma configuration de base.1 Deuxièmement, j’aurais dû préciser que les outils d’IA agentique actuels sont meilleurs pour accomplir la plupart des tâches de recherche en sciences sociales que les professeurs dans le monde entier.2 Cela ne signifie pas que vous serez nécessairement remplacé, mais cela signifie que la nature de votre travail va changer. Troisièmement, l’article généré par l’IA contenait des erreurs stylistiques mineures et quelque peu bizarres qu’une meilleure révision humaine aurait détectées.

À cet égard, je tiens à mettre en avant l’article de Solomon Messing et Joshua Tucker pour la Brookings, publié peu après le mien, qui présente une version beaucoup plus convaincante de nombre de mes arguments — avec des exemples d’utilisation concrets, sans provocation inutile ni texte généré par l’IA, et une vision plus constructive de l’avenir. Si mon article était trop abrasif pour vous, lisez le leur à la place.

J’ai été délibérément provocateur, et j’assume ce choix. Il s’est retourné contre moi dans un certain sens, mais a fonctionné dans un autre : des dizaines, voire des centaines d’universitaires essaient maintenant des outils d’IA agentique qui ne l’auraient pas encore fait autrement. Après avoir lu la plupart des réponses, j’ai certainement changé d’avis sur quelques points, mais je reste convaincu de mon affirmation centrale : en raison des outils d’IA déjà existants, notre flux de travail de recherche devra changer, que cela nous plaise ou non. Voici dix thèses supplémentaires issues de mes réflexions.

11. La recherche qualitative et la collecte de données originales vont gagner en valeur relative.

La critique de fond la plus solide de la première partie était qu’elle confondait « recherche » avec les tâches spécifiques que l’IA maîtrise bien — revues de littérature, analyse de données, synthèse conceptuelle. Plusieurs répondants ont fait remarquer à juste titre que l’IA ne peut pas mener de travail ethnographique de terrain, interroger des détenus dans des prisons clandestines, ou passer des années à établir un lien de confiance avec une communauté. Ils ont tout à fait raison. Mes thèses portaient principalement sur le travail quantitatif et conceptuel (actuellement dominant) en sciences sociales, et j’aurais dû être plus clair sur ce périmètre.

Mais l’implication n’est pas que les chercheurs qualitatifs devraient se détendre. C’est que la valeur relative de la collecte de données originales — travail de terrain, entretiens, recherche en archives, observation participante — est sur le point d’augmenter. Si l’IA peut synthétiser la littérature existante et effectuer des régressions standard, alors la prime se déplace vers ce que l’IA ne peut pas faire : générer de nouvelles données qui n’existaient pas auparavant, en particulier dans des contextes difficiles d’accès. Les chercheurs qualitatifs et les expérimentalistes de terrain devraient y voir une opportunité de produire davantage de travaux excellents là où ils disposent d’un avantage comparatif, au lieu de transcrire leurs entretiens ou de compiler des revues de littérature.

12. En raison de l’« irrégularité », les opinions sur l’IA sont polarisées par les croyances en son utilité.

Ethan Mollick décrit les capacités de l’IA comme une « frontière irrégulière » — surhumaine pour certaines tâches, lamentablement défaillante pour d’autres, d’une manière qui ne correspond pas à l’intuition humaine. L’IA peut rédiger une revue de littérature convenable mais buter sur un puzzle visuel élémentaire. Elle peut synthétiser les résultats de 500 articles mais halluciner le prénom d’un co-auteur.

Cette irrégularité explique pourquoi le débat sur l’IA dans le monde universitaire est si polarisé. Les critiques pointent les creux ; les enthousiastes pointent les pics. Les deux ont raison sur leur portion de la frontière. Le chevauchement avec le clivage qualitatif-quantitatif en sciences sociales est difficile à ignorer : les chercheurs dont le travail implique les tâches que l’IA maîtrise bien (analyse de données, synthèse de littérature, reconnaissance de schémas) tendent à être plus positifs, tandis que ceux dont le travail implique les tâches que l’IA maîtrise mal (travail de terrain, entretiens, interprétation archivistique) tendent à être plus sceptiques.

Mais j’ai remarqué quelque chose au-delà du simple désaccord. Les utilisateurs de Bluesky qui détestent viscéralement l’IA étaient souvent les premiers à nier des faits élémentaires, facilement vérifiables — par exemple, qu’elle peut produire correctement des présentations. Très peu de répondants ont reconnu que les capacités de l’IA pour la recherche sont réelles tout en s’inquiétant de leurs conséquences. Les gens soit n’aiment pas l’IA et nient tout usage productif, soit l’apprécient et exagèrent son utilité. Une partie de cela relève du raisonnement motivé — la menace existentielle explicite d’un ordinateur qui fait les choses mieux que soi. Mais je soupçonne qu’une part encore plus grande est simplement de l’ignorance à l’égard de « l’autre ».

La théorie du contact est bien réelle. Si vous croyez que Claude Code est maléfique ou incompétent, je vous mets au défi de l’installer et de l’utiliser pour organiser vos dossiers de recherche ou créer des présentations pour vos prochaines conférences. Plus tôt, j’encourageais les gens à « passer une semaine avec Claude Code ». Cela aurait dû être « passer une journée » (ce qui devrait suffire).

13. L’expertise de l’utilisateur détermine encore largement la qualité du résultat.

Ce n’est peut-être pas surprenant, mais une grande partie des critiques sur Bluesky suppose encore qu’utiliser l’IA signifie copier-coller depuis un chatbot. Ce n’est tout simplement pas ainsi que fonctionne l’IA agentique. L’IA agentique opère de manière autonome dans votre système de fichiers, lit et écrit du code, consulte de la documentation et exécute des flux de travail de recherche en plusieurs étapes — le tout guidé par des instructions détaillées que vous construisez au fil du temps.

Une forme connexe et courante de déni de l’IA suppose également que, parce que l’outil est accessible, n’importe qui pourrait produire le même résultat. C’est comme affirmer que, puisque tout le monde a accès à une cuisinière, tout le monde sait préparer un bon repas. Il y a des différences évidentes de compétences culinaires, de recettes et de qualité des ingrédients.

Mais la question n’est pas de savoir si l’IA est meilleure que la plupart des professeurs pour accomplir la plupart des tâches de recherche importantes (je maintiens que c’est le cas), mais si de bons chercheurs avec l’IA sont meilleurs que de bons chercheurs sans l’IA (ils le sont incontestablement). Honnêtement, je préférerais n’importe quel jour de la semaine un texte IA bien prompté plutôt que les réactions automatiques de Bluesky (des centaines d’utilisateurs anonymes répondant « ia/pl » dès qu’ils voient le mot-clé redouté de l’IA, indépendamment de tout contenu).

14. Le décalage de publication rend les critiques des capacités de l’IA obsolètes avant même leur parution.

Voici un problème que presque personne dans le débat ne reconnaît : les délais de publication académique et éditoriale sont structurellement incompatibles avec le rythme d’amélioration de l’IA. Quand quelqu’un cite un article de 2025 (initié en 2024) documentant le taux d’hallucination de GPT-4 pour argumenter contre l’utilisation de l’IA en mars 2026, il cite des données sur un système qui n’existe plus. C’est comme citer une étude de 2005 sur les limites des téléphones à clapet pour argumenter contre les smartphones. C’est probablement pourquoi le nouveau livre « AI Con » est si mauvais — manifestement obsolète avant même d’arriver en librairie.

Je ne rejette pas cette recherche en elle-même. Les études sont souvent méthodologiquement solides. Mais la base de preuves expire plus vite qu’elle ne peut être publiée, évaluée par les pairs et citée. L’article de Messing et Tucker pour la Brookings, publié en mars 2026 (et révisé « rapidement » en seulement deux semaines), documente déjà des capacités qui auraient semblé spéculatives six mois plus tôt. Le temps qu’un article évalué par les pairs sur les limites actuelles de l’IA paraisse dans une revue, les limites qu’il documente auront probablement été corrigées. Ce n’est pas une situation confortable pour des universitaires formés à s’appuyer sur des données publiées. Mais c’est la situation dans laquelle nous nous trouvons.

15. La plupart des articles sont déjà majoritairement lus par l’IA, pas par des humains.

C’est un secret de Polichinelle dans le monde universitaire que la plupart des articles publiés ne sont jamais cités ni lus par quiconque au-delà des auteurs, des évaluateurs et parfois de l’éditeur. Avec la prolifération à venir d’articles écrits par l’IA — qu’il s’agisse de contenu médiocre ou non — il deviendra impossible pour les chercheurs de suivre même leur propre domaine de niche. J’aime penser que je suis au courant de toute la nouvelle littérature sur les attitudes envers l’immigration, mais je manque probablement 80 % de ce qui est produit en dehors des États-Unis, de l’Europe et des grandes revues disciplinaires.

Cela signifie que les universitaires devraient accepter que leur public principal est de plus en plus constitué de LLM. Tyler Cowen parle d’écrire pour les LLM depuis un certain temps, mais avec l’essor des outils agentiques, cela s’applique désormais à la plupart des universitaires — y compris les chercheurs qualitatifs dont le travail lui-même ne peut pas être automatisé. Je n’ai pas une idée précise de ce que les auteurs devraient faire à ce sujet, mais s’assurer qu’une version lisible par les machines de votre article existe (idéalement en format .md) semble être un bon premier pas.

16. L’IA révèle ce qui était déjà dysfonctionnel dans le monde universitaire et au-delà.

Dans le même ordre d’idées, un grand nombre de réponses à la première partie revenaient à : « Si l’IA peut faire votre recherche, votre recherche n’a jamais été bonne. » Je suis d’accord (rires) — mais c’est un réquisitoire contre une grande partie des sciences sociales, pas une défense contre l’IA ni une attaque intelligente contre moi personnellement. La crise de la réplication, le bourrage de citations, le p-hacking et la production d’articles que personne ne lit étaient tous des problèmes préexistants.

Le contenu académique médiocre produit par des humains a toujours été omniprésent ; l’IA ne fait que le rendre visible. Nathan Smith l’a formulé de manière plus brutale dans son partage : les institutions universitaires thésaurisent le capital humain, le système de titularisation récompense le nombrilisme collectif plutôt que l’impact public, et la plupart des professeurs seraient plus utiles à faire autre chose. C’est une formulation sévère. Mais si seul un faible pourcentage des articles publiés a une valeur réelle, le système que l’IA perturbe n’était pas exactement florissant.

17. L’atrophie des compétences est un risque réel, en particulier pour la future génération de chercheurs.

Cela nous amène à ce que je considère comme une autre réaction forte à mon article initial : l’idée que l’externalisation de processus cognitifs comme « évaluer les sources » et « coder les données » nuit à la compréhension propre du chercheur. Beaucoup de gens s’inquiètent à juste titre de la « réduction de processus complexes, guidés par la réflexion, à une série de tâches discrètes à externaliser, alors qu’il se passe tellement de choses sur le plan cognitif entre et après les étapes ». Messing et Tucker signalent le même risque sous le terme d’« atrophie des compétences ».

Je prends cela au sérieux, et je concède que le risque est réel — en particulier pour les étudiants et les doctorants qui n’ont pas encore intériorisé les compétences cognitives que l’IA pourrait court-circuiter. Les chercheurs qui s’inquiètent de l’atrophie des compétences ont raison de dire que quelque chose se perd. Mais ils sous-estiment ce qui se gagne : la capacité d’opérer à un niveau d’abstraction plus élevé, de tester plus d’hypothèses, d’itérer plus rapidement. Pour les chercheurs confirmés, le risque d’atrophie est faible parce que les compétences existent déjà. Pour les étudiants et les futurs chercheurs, nous devons de toute urgence trouver des solutions en actualisant nos programmes de troisième cycle.

18. Les détecteurs d’écriture IA et les normes de déclaration ne fonctionnent pas.

Les outils de détection d’écriture IA étaient mauvais, sont toujours mauvais, et resteront probablement mauvais. L’article original produit par Claude a passé tous les grands détecteurs d’IA comme « 100 % humain » sans aucun prompt élaboré de ma part pour éviter cela. De nombreux critiques de mon article initial ont dit qu’ils avaient immédiatement « senti » qu’il était écrit par une IA. Mais ils ont dit cela après que j’ai révélé le processus — un cas d’école de biais de confirmation. Avant la révélation, personne ne l’avait signalé. En fait, quelqu’un s’est même plaint que je n’avais pas utilisé l’IA pour écrire un article faisant la promotion de l’IA.3

Le point le plus important concerne les incitations à la déclaration. Messing et Tucker recommandent de standardiser les déclarations d’utilisation de l’IA dans toutes les disciplines. Je respecte leur raisonnement et l’appel à la standardisation (au lieu du chaos actuel), mais je ne suis pas d’accord sur le fait qu’une norme expansive de déclaration d’utilisation de l’IA puisse avoir un quelconque mérite étant donné la structure d’incitations actuelle.

Ne vous méprenez pas — les personnes en position d’autorité comme les rédacteurs en chef de revues devraient être transparents sur leur flux de travail. Mais pour les auteurs ordinaires, la déclaration volontaire crée un système où les utilisateurs honnêtes sont pénalisés et les utilisateurs malhonnêtes ne subissent aucune conséquence. J’ai déclaré mon flux de travail IA et j’ai reçu des menaces, des attaques professionnelles et des appels à mon licenciement. L’incitation rationnelle est de mentir. Les « déclarations d’utilisation de l’IA » paraissent raisonnables, mais elles s’effondrent au contact de la dynamique sociale réelle de la vie universitaire en 2026. Tant que les coûts professionnels de la déclaration ne diminuent pas, les normes de déclaration obligatoire sélectionneront la malhonnêteté.

Il y a aussi un problème plus profond : les normes de déclaration posent la question de la responsabilité à l’envers. Pour certains, la déclaration d’utilisation de l’IA peut même fonctionner comme un dégagement de responsabilité — « J’ai utilisé l’IA, donc c’est à vous maintenant de déterminer si c’est du contenu médiocre. » Mais les auteurs devraient assumer le produit final, quelle que soit la manière dont il a été produit. Si l’IA introduit une erreur, c’est la responsabilité de l’auteur. Ce qui compte, c’est de savoir si le travail est correct et précieux, pas si c’est un humain ou une machine qui a tapé les phrases.

19. Le Bluesky universitaire n’est pas un lieu sérieux pour ce débat.

Je dois aborder ce point parce qu’il a coloré tout ce qui a suivi. Bluesky a généré presque autant de réactions que Twitter, mais elles étaient massivement hostiles de la manière la moins productive qui soit. La réponse la plus courante était une variante de « Si vous ne l’avez pas écrit, pourquoi devrais-je le lire ? » ou « ia/pl ». Beaucoup incluaient des insultes, des accusations d’être payé par des entreprises d’IA (?), et des appels à ne plus citer mes travaux publiés (??) voire à me licencier (???) avec des gens identifiant mon employeur pour me remplacer par une IA puisque je prétends qu’elle est si performante.

Mon article original était provocateur. Mais je n’ai attaqué personne personnellement. J’ai avancé des arguments sur l’IA et le monde universitaire, basés sur ma propre expérience dans le domaine, avec lesquels vous pouvez être d’accord ou non. Pour cela, des universitaires sur Bluesky ont répondu par des menaces professionnelles, des attaques ad hominem et des raids coordonnés. J’ai la peau dure et la sécurité de l’emploi. Je peux encaisser cela.

Mais la plupart des personnes susceptibles de partager des opinions hétérodoxes sur l’IA dans le monde universitaire n’ont pas ce luxe. Ce sont des doctorants, des enseignants contractuels et des jeunes chercheurs (en fait, j’en étais un moi-même il y a seulement quelques mois !) qui observent ce qui m’est arrivé et en tirent la conclusion évidente : gardez le silence. C’est le véritable coût de la culture du lynchage en ligne — pas pour les gens comme moi, mais pour le libre échange d’idées que le monde universitaire est censé protéger. Et bien que j’apprécie tous les sympathisants qui m’ont contacté en messages privés, j’aimerais que vous vous exprimiez publiquement. C’est la seule façon de changer cette dynamique regrettable.

20. La recherche peut manquer d’« âme » et néanmoins servir l’intérêt public.

Max Kagan a articulé et abordé une préoccupation courante des utilisateurs de Bluesky qui résonne aussi chez moi : l’idée que la recherche produite par ou avec l’IA manque de quelque chose d’essentiel — appelons cela l’âme, le savoir-faire ou l’engagement intellectuel authentique. Le processus de lutte avec une question, de confrontation à l’ambiguïté et de construction lente d’un argument est personnellement transformateur pour beaucoup de chercheurs. Il y a une raison pour laquelle les gens poursuivent des doctorats malgré des perspectives d’emploi médiocres : le travail en lui-même a du sens. Quand l’IA compresse ce processus en quelques heures, quelque chose de véritablement précieux se perd.

Je ressens cet attrait. Mais je ne suis pas sûr qu’il survive à la confrontation avec la question de savoir qui finance tout cela. La plupart de la recherche universitaire est financée sur fonds publics. Les contribuables ne financent pas les universités pour que les professeurs s’accomplissent personnellement. Ils financent les universités pour produire des connaissances qui bénéficient à la société. Si la recherche assistée par l’IA produit plus de connaissances et de meilleure qualité, plus rapidement, l’argument de l’intérêt public en faveur de son adoption est difficile à contester — même si l’expérience personnelle de la recherche devient moins romantique.


  1. J’utilise l’application de bureau Claude sur Windows, connectée à mes dossiers GitHub via Claude Code (Opus 4.6, abonnement Max à 200 $/mois), ainsi que l’extension Chrome de Claude pour les tâches de navigation. Pour mon article précédent, je lui ai demandé de résumer mes publications sur les réseaux sociaux concernant l’IA et le monde universitaire sous la forme de 10 thèses, en suivant des procédures et des guides de style que j’ai progressivement élaborés dans des fichiers d’instructions spécifiques aux projets. Rien de très mystérieux, en somme. 

  2. Si vous avez supposé que je parlais de professeurs américains dans des universités de recherche de premier plan, c’est votre interprétation. En tant que personne familière de la recherche courante en sciences sociales dans les pays en développement et l’espace post-soviétique, je peux vous dire que la plupart des travaux publiés dans des revues de type MDPI ont peu de valeur, même lorsqu’ils ne sont pas du pur plagiat. Il s’agit principalement de travaux quantitatifs basiques et répétitifs — redéfinir des termes et corréler des variables — du type courant dans les sciences sociales et que l’IA peut déjà accomplir de manière plus compétente. 

  3. Ryan Briggs fait une remarque pertinente : les détecteurs d’IA sont calibrés pour réduire les faux positifs, ils peuvent donc rester utiles pour détecter les étudiants qui trichent excessivement. Pour les besoins de la recherche cependant, je ne suis pas certain que cela compte. 

Publié à l'origine sur Substack.
Cette traduction a été réalisée avec l'aide de l'IA et peut ne pas représenter fidèlement le contenu original. Veuillez consulter la version anglaise sur Substack pour le texte de référence.
Citation suggérée
Kustov, Alexander. 2026. "Academics Need to Wake Up on AI, Part II." Popular by Design, March 4, 2026. https://www.popularbydesign.org/p/academics-need-to-wake-up-on-ai-part