Rien d’étonnant alors que dans le salon Educ@tech 2025 qui vient de se tenir à Paris, Porte de Versailles, l’intelligence artificielle ou IA ne soit partout.
Dans les intitulés des conférences :
Enseigner et apprendre à l'ère de l'IA : comment repenser le continuum entre les enseignements scolaire et supérieur ?
Pourquoi l’IA va transformer la production pédagogique ?
Stratégie du numérique pour l'éducation : Quels apprentissages ? Quelles suites ? (C’est d’IA qu’il y est essentiellement question).
L’intelligence artificielle : catalyseur d’innovation, de sécurité et de durabilité dans l’éducation
Pourquoi la politique européenne d’éducation au numérique et à l'IA peut tout changer ?
Des données de l'éducation à l'éducation aux données. La donnée de l'éducation : levier d'acculturation, de pilotage et de citoyenneté à l'ère du numérique et de l'IA.
Dans les ateliers :
Des outils pour apprendre autrement : l’IA au service des besoins éducatifs spécifiques
Apprendre, enseigner, protéger : l’IA à l’épreuve du réel
IA et cybersécurité : comprendre les risques pour mieux se protéger
Robots, IA et Pensée Computationnelle : Une feuille de route pratique pour les salles de classe .
Entre archives et IA : former les élèves à l’analyse critique des images avec les vidéos de l’INA
Enseigner et former à l'ère de l'IA
L’élève, le professeur et l’IA : une intelligence à trois voix.
Apprendre à penser à l’ère de l’IA : une urgence éducative
Intelligence artificielle : le défi de l’intelligence des élèves.
Dans les questionnements :
L’intelligence artificielle, et plus encore l’IA générative, s’invite désormais dans la vie quotidienne des enseignants comme des élèves. Face à ce bouleversement, la question n’est plus de savoir si l’école doit s’emparer de l’IA, mais comment elle peut le faire sans la subir.
Comment l’IA peut-elle devenir un levier au service des apprentissages, de la différenciation pédagogique, de la créativité des élèves ou encore du soutien à la préparation des cours ? Comment accompagner les enseignants dans l’évolution de leurs pratiques, de leurs compétences et de leurs repères éthiques ?
Au-delà des outils, c’est toute une réflexion sur la conception, la mutualisation et la durabilité des ressources éducatives qui s’ouvre. Peut-on imaginer des dispositifs d’IA plus utiles, plus sûrs, mieux adaptés aux besoins de terrain ? Quels modèles économiques et quelles logiques de partage (open source, communs, licences libres) permettront d’en faire un véritable bien collectif ?
Comment ces transformations se traduisent-elles concrètement dans les politiques publiques, dans les établissements et sur le terrain pédagogique ? Comment garantir la sécurité et la souveraineté des données ? Et comment veiller à ce que la technologie reste un levier au service de l’humain, dans une logique durable et éthique ?
Comment faire de la donnée un levier de confiance, de discernement, d’émancipation et de citoyenneté numérique, utile, pertinente, protectrice et porteuse de valeur ?
La première remarque c’est qu’il y a une forme de précipitation à s’emparer ainsi du sujet.
Le questionnement est légitime bien sûr mais il est fait comme si l’IA était là une fois pour toute alors qu’elle ne cesse d’évoluer, que de nouvelles étapes s’ouvrent avec l’IA agentique avec les ordinateurs quantiques. (L’IA agentique est le passage à des systèmes dont la tâche principale est de prédire et générer des systèmes capables de décider et d’agir. Les IA dites génératives peuvent aider à la prise de décision ou à la création de contenus alors que les IA agentiques peuvent ou pourront initier des décisions et les exécuter de façon autonome…cela va encore changer la donne).
L’urgence à s’emparer de l’IA qui revient dans tous les discours se comprend lorsque l’on considère que beaucoup d’élèves et d’étudiants s’en sont déjà emparé, que c’est déjà un fait de société et que par conséquent l’école ne peut pas passer à côté. Du reste, qu’elle le veuille ou non, il y a un domaine qui est d’ores et déjà très touché c’est celui de l’évaluation surtout si l’on se limite à l’évaluation d’un produit d’un apprentissage et non de l’apprentissage lui même. On ne parle même plus des devoirs à la maison mais les procédures de contrôle continu sont aussi remises en cause alors qu’elles ont pris une importance accru ces dernières années avec leur part dans le résultat final au baccalauréat et dans le renseignement de parcours sup.
L’IA, bien utilisée, peut faciliter la mise en place d’une pédagogie différentiée en classe et hors de la classe, cela aussi fait consensus et les Edtech se sont emparées du sujet pour proposer des solutions techniques. Dans ces deux exemples, l’IA agit simplement comme un révélateur de très anciennes problématiques de l’éducation. Autre consensus, elle peut être un outil supplémentaire pour l’enseignant dans la préparation de ses cours et leur scénarisation.

Première question posée : quelle IA ou quelles IA à l’école ?
Pour faire simple, il semble peu satisfaisant, pour développer un usage non naïf, raisonné, éthique… de se mettre dans les bras de chatGPT par exemple. Autre consensus : il est indispensable de fabriquer à l’échelle de la France ou tout au moins de l’Europe des solutions plus adaptées aux exigences légitimes de l’école d’une démocratie et évitant les biais du far West ou de l’extrême est. (On entend souvent dire sans biais. Cela me semble impossible mais d’autres biais que ceux des prédateurs de la tech peuvent être plus acceptables) Pour le moment, il n’existe que des solutions très embryonnaires mais des travaux sont menés en collaboration avec le leader français de l’IA, MISTRAL.
La protection des données d’éducation sera évidemment plus garantie avec Mistral qu’avec chatGPT et cela est un point crucial. Toutefois des données seront alors récoltées avec un anonymat relatif (difficile quand même de garantir qu’il sera impossible de remonter jusqu’à un individu ou un groupe d’individus en croisant des données). La transparence des algorithmes pourra aussi être plus facilement exigée…même si je doute fort qu’il y ait eu sur le salon quelqu’un qui, devant les lignes de code d’un algorithme d’IA, trouve cela vraiment transparent.
La sécurité des données est aussi celle des divers sites hébergeurs de ces données par rapport à d’éventuels piratages mais le sujet n’est ici même pas évoqué.
Par ailleurs, on peut craindre que, au vu des différences des montants d’investissement par les géants de la tech d’une part et par les acteurs européens du secteur de l’autre, les solutions des premiers aient davantage la faveur du public (y compris des enseignants) que les autres. Cela pourrait être un danger si les états européens ne mettent pas en place un niveau de régulation suffisant. A ce propos, le « Cadre d’usage de l’IA en éducation » établi par le ministère de l’Education Nationale et accessible à tous sur le site education.gouv.fr précise que « L’utilisation des solutions libres doit être privilégiée ».
Deuxième question posée : l’intelligence artificielle pour quels apprentissages ?
Il faut alors distinguer deux types de compétences concernées : celles qui sont déjà inscrites dans les programmes scolaires, quelles soient disciplinaires ou transversales et celles qui sont directement liées à l’IA elle même et son utilisation dans le cadre scolaire et en dehors de ce cadre par les élèves et par les enseignants.
Pour les premières, la réflexion est en cours mais n’a pas débouché, pour l’instant, sur des mises en commun d’expériences prometteuses et encore moins sur des recommandations pédagogiques de la part des corps d’inspection. C’est prématuré sans doute, mais c’est pourtant un levier indispensable si l’on veut que le corps enseignant considère l’IA comme un potentiel outil d’innovation vers une meilleure réussite des élèves.
Si l’enseignant doit lui même déterminer pour chacun des objectifs d’apprentissage qu’il doit travailler dans sa classe si l’utilisation de l’IA est pertinente ou non, deux dérives sont à craindre : pas d’IA ou trop d’IA. Le numérique éducatif s’oriente pourtant de plus en plus vers des solutions hybrides : intégration ou non y compris dans l’évaluation, quelles activités peuvent être déléguées etc. C’est une banalité que de le dire mais des avancées sur ce point nécessitent deux attitudes de l’institution : laisser une place pour les initiatives des enseignants dans le cadre de la liberté pédagogique et recenser celles-ci pour en faire des objets d’évaluation et d’expérimentation pour ensuite les partager et les diffuser. C’est là encore une problématique ancienne à laquelle on peut espérer une réponse grâce à cette nouvelle donne.
Le deuxième champ de compétences est davantage évoqué par les intervenants : quelles compétences aujourd’hui à l’école pour préparer à l’IA qui arrive ? Et cela concerne tout autant les élèves que les enseignants.
Les principes et objectifs généraux sont fixés dans le « Cadre d’usage de l’IA en éducation » et les plans de formation. Au delà des difficultés engendrées par l’évolution très rapide des algorithmes déjà évoquée, des objets de formation font consensus : connaissances scientifiques autour de ce qu’est l’IA et comment elle fonctionne, sensibilisation à l’aspect statistique, probabiliste des réponses fournies, savoir que l’IA est un assistant qu’il faut contrôler et s’en donner les moyens cognitifs et métacognitifs, connaissance du cadre éthique et juridique des utilisations, sensibilisation au coût environnemental de ces technologies…Mais également aptitudes à rédiger un « prompt » en sachant qu’une question mal posée a peu de chance d’obtenir une bonne réponse et aussi que faire tourner plusieurs fois la machine pour obtenir le résultat escompté cela aggrave sérieusement le bilan énergétique de l’opération.
Les interventions sur ce thème appellent quelques remarques : l’IA doit rester un outil, cela a été dit ; cela ne doit pas devenir une discipline nouvelle; par conséquent, il ne faut peut être pas aller trop loin. Pour se servir d’un four micro onde, il n’y a pas besoin d’en connaître le principe de fonctionnement et si l’on étudie trop attentivement tous les dangers et risques mentionnés dans la notice on peut perdre toute envie de le brancher. Beaucoup d’élèves ont déjà adopté l’IA sans se poser de questions : il convient me semble-t-il de partir de leurs usages pour répondre à leurs besoins et prévenir les risques qu’ils méconnaissent. Quand aux professeurs, je doute que certaines injonctions entendues sur le salon (« les enseignants ont la responsabilité de se former qu’ils apprécient ou non l’IA ») aient un effet réellement mobilisateur.
L’Edtech VITTASCIENCE a développé des activités pour la sensibilisation des élèves à ces enjeux.
Troisième question posée : Quels sont les risques ou dangers à éviter ?
Il est évident qu’un usage « frugal, éthique et responsable » évite beaucoup de ces dangers mais qu’en sera-t-il dans la réalité ?
Le numérique version web et réseaux sociaux pouvait favoriser un travail collaboratif tant des enseignants que des élèves avec le danger, bien sûr, de communautés restreintes et d’entre soi qui a été dénoncé en son temps. C’est à une autre échelle que l’IA peut bousculer les interrelations sociales dans le milieu scolaire. Le dialogue n’est plus entre individus physiquement présents ou numériquement connectés mais entre un individu et une machine de plus en plus sophistiquée et donc de plus en plus « bluffante », c’est à dire trompeuse, programmée pour capter l’attention de l’utilisateur quitte à lui fournir les réponses qu’il attend. Pourquoi alors questionner un pair, condisciple ou collègue, alors que la machine est toujours disponible et répond immédiatement à toute sollicitation sans contrarier qui que ce soit pourvu qu’elle soit habilement questionnée.
Le travail collaboratif des élèves ou des enseignants n’est pas une panacée mais pour les premiers, la dimension collaborative et sociale des apprentissages a déjà fait ses preuves dans une alternance bien construite entre des temps individuels et des temps collectifs. Quant aux seconds, il ne faudrait pas que, ce qui doit être un outil supplémentaire à leur service, vienne renforcer la solitude du prof ou son individualisme. En tous cas la vigilance est de mise pour tenir compte des fragilités des uns et des autres. L’entre soi a ses défauts mais l’entre moi et la machine me semble pire et les dérives possibles sont mal connues faute de recul en particulier sur la santé mentale des adolescents déjà ébranlée actuellement au dire des spécialistes.
L’intelligence artificielle ne cesse d’évoluer et l’on est peut être à un tournant majeur pour nos sociétés et donc pour l’éducation et la formation.
Cette évolution sera réussie :
A la condition que les politiques permettent l’avènement d’une intelligence artificielle européenne performante, éthique, responsable, avec des biais acceptables, sûre et respectueuse autant que possible de l’environnement ;
A la condition que soit régulée l’utilisation des IA en général et protégées les données qui en sont le carburant ;
A la condition que l’usage proposé à l’école soit pertinent, raisonné et s’appuie tout à la fois sur un cadre précis, des expérimentations évaluées et diffusées, des recherches universitaires et des applications proposées par les Edtech. Il ne pourra pas y avoir une IA à l’école et des IA à la maison et il y a déjà des IA à la maison.
Dernière modification le lundi, 01 décembre 2025







