, 11 août 2025

IA agentique et délestage cognitif

Dave Anctil enseigne la philosophie et l’intelligence artificielle (IA) au collège Jean-de-Brébeuf, à Montréal. Il est également conseiller-expert en IA auprès de la Faculté des arts et sciences de l’Université de Montréal et chercheur affilié à l’Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA).

Cet article s’inscrit dans la collection « RÉFLEXION ».
Par Dave Anctil, Ph. D.


Mon rôle de conseiller à la Faculté des arts et des sciences de l’Université de Montréal consiste à essayer d’aider les communautés d’enseignement et de recherche scientifique à s’adapter à la progression rapide de l’intelligence artificielle générative (IAgen). C’est plus important que jamais dans le contexte de l’IA « agentique » (de l’anglais agentic AI). En effet, les systèmes d’IAgen, tels que ChatGPT (OpenAI) ou Gemini (Google), deviennent graduellement des assistants plus autonomes, capables de gérer des tâches intellectuelles plus complexes.

Mais que nous dit la recherche scientifique sur le sujet ? Elle démontre pourquoi il est essentiel de bien comprendre les limites de l’IA pour en faire un usage responsable. Mais elle nous prévient aussi contre le délestage cognitif, qui pourrait se traduire par une perte de compétences et d’esprit critique.

 

Des assistants de recherche?

Les principaux services d’IAgen peuvent utiliser un navigateur et des moteurs de recherche en ligne, ce qui augmente considérablement leur utilité théorique pour les professionnels. Mais leurs limites pratiques ont rapidement été mises en évidence, notamment leur manque de fiabilité.

Cependant, certains services d’IAgen offrent, depuis la fin de 2024, des capacités de recherche supérieures ; elles sont intrinsèquement liées aux modèles de « raisonnement », comme Gemini 2.0 (Google) et les modèles o1 et o3 (OpenAI). En divisant la tâche et en supervisant leur processus, ces modèles « raisonneurs » commettent beaucoup moins d’erreurs et de confabulations. Et ils peuvent effectuer une « recherche approfondie » (deep research), c’est-à-dire fouiller dans des centaines de documents pour récupérer des informations pertinentes et de qualité, notamment dans certaines bases de données scientifiques et techniques (arXiv, PubMed, Semantic Scholar, etc.).

Le coût informatique de ces capacités supérieures est cependant beaucoup plus élevé, et donc conditionnel au type d’abonnement. Les nouvelles capacités agentiques augmentent toutefois la pertinence et la fiabilité de l’IAgen en science et en génie. Même si la performance en recherche de l’IA n’est pas encore d’un niveau expert (professionnel ou scientifique), cette assistance peut réellement soutenir et augmenter les activités de recherche des organisations1. Ces systèmes peuvent notamment intervenir dans la gestion et le développement de nouveaux projets, ou en conception technique, afin de soutenir les processus de décision en ingénierie.

Toutefois, l’IAgen nécessite toujours une supervision humaine rigoureuse. Une supervision que les mêmes capacités accrues de l’IA menacent…

 

Le délestage cognitif

Dans la formation universitaire comme dans le travail professionnel, la progression de l’IAgen soulève le défi du délestage cognitif : en effectuant de nouvelles tâches techniques et intellectuelles à notre place, l’IA réduit souvent l’effort mental requis, ce qui peut conduire à une perte progressive des compétences essentielles et nuire à notre pensée critique.

C’est du moins ce que révèle la recherche dans le contexte universitaire. Une méta-analyse récente des meilleures études quantitatives publiées entre 2022 et 2024 montre que l’IAgen, en particulier ChatGPT, a un effet positif global sur l’apprentissage étudiant, notamment sur la motivation, la compréhension, l’engagement et la résolution de problèmes complexes2. Ces résultats positifs semblent corrélés avec ceux d’autres études, réalisées celles-là dans les milieux professionnels, indiquant notamment que l’IA augmente la productivité, la motivation et la qualité du travail.

Cependant, la méta-analyse montre aussi que l’utilisation de l’IA, même dans un environnement expérimental contrôlé, réduit l’effort mental requis pour certaines tâches intellectuelles, ce qui peut provoquer un désapprentissage2.

Pire encore, une étude publiée au début de 2025 soutient que l’usage de l’IA pourrait se traduire par une baisse des capacités de pensée critique chez les jeunes de 17 à 25 ans3. Bien que cet effet du délestage cognitif sur la pensée critique soit faible ou nul chez les personnes professionnelles ayant terminé leur formation universitaire depuis plusieurs années, les résultats d’une autre étude viennent soutenir l’hypothèse qu’elles ne sont pas aussi protégées qu’on le souhaiterait4.

On retiendra que les deux études citées montrent, dans des contextes différents, que l’IAgen réduit généralement l’effort cognitif dans les volets suivants du travail intellectuel : mémorisation, compréhension, application, analyse et évaluation. Or, lorsque l’IA s’acquitte bien de ces volets du travail intellectuel, la confiance humaine envers l’IA augmente, ce qui se traduit par une baisse de la révision critique approfondie des résultats du travail collaboratif.

 

Qu’est-ce que ça veut dire ?

La recherche portant sur la co-intelligence (humain-IA) est encore à ses débuts. Mais elle est absolument essentielle pour planifier l’avenir de l’éducation et des professions, dont les évolutions sont interconnectées. À l’ère de l’IA agentique, la tentation de confier les tâches cognitives les plus complexes à la machine augmentera en proportion de ses capacités. Par conséquent, il faudra aussi apprendre à augmenter la motivation à exercer activement la pensée critique, afin d’éviter une réduction des compétences et de la réflexion autonome.

 

Références

  1. N. Jones (2025), « OpenAI’s ‘deep research’ tool: is it useful for scientists? », Nature News, 6 février.
  2. R. Deng, M. Jiang, X. Yu, Y. Lu et S. Liu (2024), « Does ChatGPT enhance student learning? A systematic review and meta-analysis of experimental studies », Computers & Education [version préliminaire].
  3. M. Gerlich (2025), « AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking », Societies, 15(1), 6.
  4. H.-P. H. Lee, et coll. (2025), « The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers », Proceedings of the ACM CHI Conference on Human Factors in Computing Systems (avril).

 

Retrouvez tous les articles dans la revue PLAN d’ÉTÉ 2025

Cet article est inclus dans :