Catégories
Appels à contribution

Intelligence artificielle et formation – Quels effets de l’IA sur les dispositifs de formation et ses acteurs ? – Date limite (résumé) : 1er février 2026

Éducation permanente Parution : mars 2027

Coordination : Stéphane Simonian

Ce dossier d’Éducation permanente entend proposer une réflexion sur les potentialités et les limites des intelligences artificielles (IA) dans la formation des adultes. D’un côté, une IA peut être considérée comme un facteur de réussite (Molenaar et al., 2023 ; Zhang et al., 2025), un support cognitif (scaffolding) favorable à des environnements de formation personnalisés, à des régulations adaptatives (Sardi et al., 2025) et à l’étayage (Goel et Joyner, 2017 ; Cress et Kimmerle, 2023 ; Bui et al., 2025). D’un autre côté, les recherches sur l’IA et l’IA générative n’ont pas encore produit de résultats stabilisés car ils dépendent des contextes, des cultures et des ingénieries mis en œuvre (Debets et al., 2025 ; Zhang et al., 2024). La prudence est ici de mise pour préserver la complémentarité homme-machine et pour continuer à penser par soi-même. L’intelligence artificielle générative pose, plus largement, la question de son intégration dans les institutions, de l’ingénierie mise en œuvre, de son appropriation par les professionnels de la formation et de ses effets en termes d’apprentissage. Utilisée dans les plateformes adaptatives, dans l’analyse de traces ou encore des systèmes d’assistance pédagogique, ce type d’IA suscite des débats éthiques (Luckin et al., 2016 ; Holmes et al., 2019 ; Coutant et Stenger, 2018 ; Lee et al., 2025) et philosophiques : quels biais ses algorithmes induisent-ils ? Le risque n’est-il pas que l’humain devienne agent d’un système technique dans lequel ses fonctions seraient réduites à l’exécution d’une tâche dictée par la machine (problématique ancienne notamment formalisée par Ellul en 1977) ? Loin d’être neutres, ces technologies sont porteuses de logiques normatives, de modèles implicites d’apprentissage et de formes nouvelles d’inégalités (Selwyn, 2016 ; Bruillard, 2025).

Au vu de ces considérations, l’enjeu de ce dossier sera, à partir d’une réflexion scientifique étayée et de données empiriques, de documenter ce que peut produire un type d’IA (implémentée ou non dans un environnement numérique d’apprentissage) en termes d’effets sur les dispositifs de formation et sur les acteurs. Cinq axes de réflexions sont proposés :

– IA et dispositifs de formation ;

– IA et pratiques de formateurs dans des environnements présentiels, hybrides ou automatisés ;

– IA et processus d’apprentissage ;

– IA et fracture numérique ;

– IA, étique et philosophie des techniques.

Les propositions de contributions seront envoyées sous la forme d’un résumé (une page) et d’une bibliographie au plus tard le 1er février 2026 à : educperma@orange.fr

Retour aux contributeurs : 1er mars 2026

Une première version des articles sera attendue le 2 mai 2026.

Les articles définitifs (en état de publication) devront parvenir à la rédaction avant le 30 juin 2026.

Les consignes de présentation sont consultables sur : https://education-permanente.com/proposer-un-article/

Pour toute question relative au thème : stephane.simonian@univ-lyon2.fr

Bibliographie

Adamson, D. et al.(2014). Towards an agile approach to adapting dynamic collaboration support to student needs. International Journal of Artificial Intelligence in Education, 24(1), p. 91-121.

Arakawa, R., Yakura, H., Goto, M. (2023). CatAlyst: domain-extensible intervention for preventing task procrastination using large generative models. Proceedings of the 2023 CHI Conference on Human Factors in Computing Systems (p. 1-19).

Bruillard , E. (2025). Intelligence artificielle générative et éducation scolaire : quelques réflexions, STICEF, 32 (1).

Bui, N. et al. (2025). The Effects of Conversational Agents on Human Learning and How We Used Them: A Systematic Review of Studies Conducted Before Generative AI. TechTrends, p. 1-17.

Chang, D.H. et al. (2023). Educational Design Principles of Using AI Chatbot That Supports Self-Regulated Learning in Education: Goal Setting, Feedback, and Personalization. Sustainability 15, 12921.

Coutant, A. ; Stenger, T. 2018. Les biais de l’intelligence artificielle. Bordeaux, Le Bord de l’Eau.

Cress, U., Kimmerle, J. (2023). Coconstruction knowledge with generative AI tools. International Journal of Computer-Supported Collaborative Learning. Vol. 18, p. 607-614.

Debets, T. et al. (2025). Chatbots in education: A systematic review of objectives, underlying technology and theory, evaluation criteria, and impacts. Computers & Education, 105323.

Ellul, J. 1977. Le système technicien. Paris, Calmann-Lévy. Goel, A. K., Joyner, D. A. (2017). Using AI to teach AI: Lessons from an online AI class. AI Magazine, 38(2), 48–59.

Holmes, W. ; Bialik, M. ; Fadel, C. 2019. Artificial Intelligence in Education: Promises and Implications for Teaching and Learning. Boston, Center for Curriculum Redesign.

Lee, H.-P. et al. (2025). The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers. CHI Conference on Human Factors in Computing Systems (CHI ’25),Yokohama, Japan.

Luckin, R. et al. 2016. Intelligence Unleashed : An Argument for AI in Education. London, Pearson.

Molenaar, I. et al. (2023). Measuring self-regulated learning and the role of AI: Five years of research using multimodal multichannel data. Computers in Human Behavior, 139, 10754

Sardi, J et al. (2025). How Generative AI Influences Students’ Self-Regulated Learning and Critical Thinking Skills? A Systematic Review. International Journal of Engineering Pedagogy, 15(1).

Selwyn, N. 2016. Education and Technology : Key Issues and Debates. London, Bloomsbury.

Zhang, J., Jantakoon, T., Laoha, R. (2025). Meta-Analysis of Artificial Intelligence in Education. Higher Education Studies. 15(2), p. 189-210.

Zhang, Z.-T. et al. (2024). You can only verify when you know the answer: Feature-based explanations reduce overreliance on AI for easy decisions, but not for hard ones. Proceedings of Mensch und Computer 2024 (p. 156-170). Germany. ACM, New York,