Les enquêtes les plus récentes convergent : l’IA est désormais entrée dans la routine étudiante. Dans l’enseignement supérieur, environ 80 à 90 % des étudiants déclarent utiliser des outils d’IA générative pour leurs études. Le rapport "AI in Education 2026" indique qu’environ 86 % des étudiants y ont recours, avec une progression rapide entre 2024 et 2025.
Explication de concepts et tutorat, résumés et prises de notes, recherche d’informations, génération d’idées, révision de passages, voire rédaction d’essais entiers : les usages dominants montrent à quel point ces outils se sont installés dans les pratiques.
Cela pose un défi majeur, à la fois pour les enseignants et pour les étudiants. Comment bénéficier de ces technologies sans tomber dans le piège de laisser l’IA faire le travail à leur place ? Comment s’assurer que les étudiants continuent à poser les bonnes questions, vérifier les preuves, interpréter les résultats et développer leur raisonnement, leur curiosité et leur esprit critique ?
Dans le même temps, les employeurs attendent de plus en plus des diplômés qu’ils soient capables de travailler avec l’IA. La question n’est plus de savoir si les étudiants utiliseront ces outils, mais comment l’enseignement doit évoluer autour d’eux.
Cette contradiction est apparue clairement lors du Hi!ckathon, le hackathon annuel IA & data science de Hi! PARIS, organisé du 28 novembre au 1er décembre 2025. Les équipes étudiantes y ont utilisé l’IA pour travailler sur des données liées à l’éducation et prototyper des outils d’apprentissage, avant de se heurter à une difficulté plus profonde : l’IA peut accélérer le travail, mais elle ne peut pas décider de ce qui compte.
Le hackathon Hi! PARIS (Hi!ckathon) est un défi annuel d’IA et de data science au cours duquel des équipes étudiantes conçoivent des prototypes à partir de jeux de données réels et les présentent devant un jury.
- L’IA peut accélérer l’analyse et l’exécution, mais elle ne remplace pas l’interprétation : les étudiants doivent toujours définir les questions, tester les hypothèses et juger les conclusions.
- « Apprentissage personnalisé » ne signifie pas nécessairement apprentissage isolé : l’IA peut libérer du temps pour le travail collectif, la discussion, les projets et la critique entre pairs.
- L’IA générative fragilise certains signaux traditionnels d’évaluation, poussant les établissements à repenser ce qui constitue une preuve d’apprentissage.
Former les étudiants à maîtriser l’IA tout en aiguisant leur sens analytique
L’un des défis du Hi!ckathon demandait aux équipes de travailler sur les données PISA, l’une des évaluations internationales les plus utilisées dans le champ de l’éducation. Pour beaucoup de participants, le jeu de données était inconnu. Et c’était précisément le point. Avant de construire quoi que ce soit, les équipes devaient comprendre ce que PISA mesure, comment l’évaluation est construite et pourquoi ses résultats reviennent si souvent dans les débats éducatifs.
Les équipes devaient combiner deux niveaux d’information : d’une part, les résultats en lecture, mathématiques et sciences (souvent avec un focus sur les mathématiques) ; d’autre part, les données issues de questionnaires décrivant le contexte socio-économique et culturel : accès aux livres, profession des parents, bien-être, harcèlement, accès aux outils numériques. Les scores ne racontaient pas toute l’histoire. Le contexte changeait l’interprétation.
Les équipes ont aussi rencontré des résultats qui exigeaient du discernement. Une découverte en a surpris plus d’un : une part significative d’élèves obtenaient un score de zéro parce qu’ils n’avaient tout simplement pas répondu aux questions. Cela ne renvoie pas directement à des capacités scolaires. Cela soulève des questions d’engagement et de motivation — des facteurs que la donnée peut laisser entrevoir, sans pouvoir les expliquer entièrement.
Les outils d’IA les ont aidés à parcourir le jeu de données plus rapidement. Mais ils ne leur ont pas dit ce que signifiaient les résultats, quels indicateurs méritaient d’être retenus, ni où se situaient les limites des données. Cette partie est restée un travail humain : ralentir, débattre les interprétations et décider quelles conclusions étaient défendables.
Si l’IA soutient l’apprentissage personnalisé, peut-elle aussi renforcer l’apprentissage collectif ?
Une grande part des promesses de l’IA en éducation porte sur les gains individuels : quiz adaptatifs, outils de tutorat, assistants qui s’ajustent au rythme de l’apprenant. La personnalisation à grande échelle est réelle et peut aider les étudiants à apprendre plus efficacement.
Mais le Hi!ckathon a montré une autre facette. Lorsque les équipes utilisaient l’IA pour des tâches routinières ou pour des analyses préliminaires, elles libéraient du temps pour ce que l’éducation peine à déployer à grande échelle : l’interaction humaine. La discussion, le travail de projet et le raisonnement collectif prenaient alors une place centrale.
Loin de remplacer le travail en groupe, l’IA l’a parfois rendu plus intense. Les étudiants débattaient de ce que les données montraient réellement. Ils contestaient les hypothèses des autres. Ils affinaient leurs conclusions ensemble.
Plusieurs équipes ont aussi exploré des systèmes conversationnels destinés à détecter des signaux liés à la concentration, à la motivation ou à l’état émotionnel. Chatbots et analyse de sentiments revenaient fréquemment. Mais l’enjeu principal n’était pas la technologie en elle-même. C’étaient les préoccupations sous-jacentes. La concentration revenait sans cesse, suivie de près par l’anxiété — des sujets que les étudiants reconnaissaient dans leur propre parcours.
La diversité des équipes a renforcé cette dynamique. Les participants venaient de pays et de systèmes éducatifs différents. Leurs expériences influençaient la manière d’interpréter le stress, l’engagement et le soutien. La collaboration n’était plus seulement une méthode : elle devenait une partie de l’enquête.
La question de fond n’est donc pas de savoir si l’IA peut personnaliser l’apprentissage. C’est de savoir si les établissements peuvent concevoir ses usages de façon à préserver la dimension sociale de l’éducation : l’argumentation, les standards collectifs et le jugement partagé.
L’IA met-elle en danger les modèles traditionnels de l’enseignement supérieur ?
L’IA générative bouscule déjà des routines académiques anciennes. Les devoirs écrits à la maison, par exemple, deviennent des indicateurs moins fiables de la compréhension réelle dès lors que les étudiants peuvent déléguer la structure et la rédaction. Cela crée un malaise, mais oblige aussi à clarifier ce que l’on évalue réellement.
En parallèle, l’IA ouvre des possibilités concrètes : retours plus rapides, outils d’identification des forces et faiblesses, parcours d’apprentissage adaptés. Pendant le Hi!ckathon, cela s’est traduit par des idées telles que des plateformes interactives, des outils de suivi de l’engagement, des formats vidéo courts inspirés des codes des réseaux sociaux, ou encore des systèmes conversationnels conçus pour maintenir l’attention dans la durée.
Aucun de ces prototypes ne propose un modèle unique pour l’avenir de l’éducation. Mais tous rendent plus nette la décision à laquelle les institutions sont désormais confrontées.
Que faut-il cesser de considérer comme une preuve d’apprentissage ? Et que faut-il, au contraire, protéger plus fermement que jamais ?
Trois façons d’intégrer l’IA efficacement, dès maintenant
Repenser l’évaluation autour du raisonnement en classe, de la soutenance orale et du processus, plutôt que des productions finales uniquement.
Enseigner la « critique de l’IA » comme une compétence : vérification, détection des biais, test des hypothèses.
Utiliser l’IA pour automatiser les étapes routinières, afin que le temps de cours soit consacré à la discussion, à la collaboration et au jugement.
Personne n’est reparti avec une réponse définitive. Mais le Hi!ckathon a mis en lumière un déplacement des priorités : à mesure que l’IA rend les réponses plus faciles à produire, l’éducation pourrait compter moins pour fabriquer des résultats, et davantage pour apprendre à questionner, vérifier et juger ce que valent ces résultats.