Imprimer cette page

Lors du salon Educatech, Axel Jean et Maxime Barilleau, tous deux à la Direction du Numérique pour l’Éducation (DNE), ont proposé un panorama dense des enjeux de l’IA à l’école. Loin d’un discours technophile naïf, ils ont rappelé une chose simple mais fondamentale : l’éducation reste d’abord une affaire d’êtres humains. On n’apprend jamais mieux qu’entre humains, insistent-ils, et l’IA n’est qu’un ensemble d’outils au service des apprentissages, sûrement pas une fin en soi.

Dans un contexte d’accélération technologique spectaculaire, l’école est prise entre deux exigences : protéger les élèves et les préparer. Protéger, en encadrant les usages, en empêchant certaines dérives, en respectant les règles de droit. Préparer, en donnant à tous la culture, les compétences et le recul critique nécessaires pour comprendre et maîtriser ces outils, au lieu de les subir. C’est ce délicat équilibre que les deux intervenants ont tenté de rendre lisible pour la communauté éducative.

Un socle clair : des valeurs non négociables et une IA “au service de”

Le discours s’inscrit dans une continuité : stratégie numérique pour l’éducation, rapport Villani, plan d’action européen pour l’éducation numérique, recommandations de l’UNESCO, rapports du Sénat et de l’inspection générale. Tous convergent vers la même idée : l’IA doit rester au service de l’humanité, et non l’inverse.

Sur le plan politique et éthique, Axel Jean insiste sur la cohérence européenne. Il rappelle que les pays de l’Union partagent un socle de valeurs démocratiques qui les distingue à la fois du “Far West” des titans de la tech et de modèles plus autoritaires à l’Est. Dans un monde où les technologies évoluent plus vite que les cadres juridiques, savoir “avec qui l’on marche” et sur quelles valeurs on s’appuie devient un enjeu stratégique.

En classe, cela se traduit par un principe simple : la question importante n’est jamais “que peut faire l’IA ?”, mais “que doit faire l’IA quand il s’agit d’éduquer ?”. L’humain reste central, l’enseignant demeure le garant des savoirs, et l’IA ne peut intervenir qu’en soutien, jamais en substitution de la relation pédagogique.

Un cadre d’usage des IA génératives co-construit avec la communauté éducative

Pour sortir du flou et du “Far West” des usages, le ministère a publié en juin un cadre d’usage des IA génératives. Ce document, relativement court, se veut à la fois juridique, éthique et opérationnel. Il rappelle les valeurs de l’école de la République, le respect du RGPD, distingue les IA génératives des autres systèmes d’IA plus anciens, et surtout trace des lignes claires : ce qui est possible, et ce qui ne doit pas être fait.

Sa particularité tient autant à son contenu qu’à sa méthode : il est le résultat d’une vaste consultation de six mois. Parents d’élèves, enseignants, personnels de direction, syndicats, chercheurs, DRANE, DRASI, collectivités, élèves eux-mêmes : toute la communauté éducative a été invitée à commenter, corriger, enrichir une première version. Ce texte n’est donc pas seulement “la position de la DNE”, mais un point d’équilibre issu de centaines de contributions. Il est appelé à évoluer au fil des retours du terrain et des évolutions technologiques.

Parmi les lignes rouges, une s’impose clairement : un enseignant ne doit pas faire créer de comptes sur des IA génératives grand public à des élèves mineurs, car cela n’est pas conforme au RGPD. Le ministère envoie ainsi un double signal : oui, les enseignants sont encouragés à s’emparer des potentialités des IA génératives ; non, tout n’est pas permis, notamment lorsqu’il s’agit de données personnelles, de traces d’apprentissage ou de dépendance à des services privés opaques.

Le cadre distingue aussi les IA grand public des solutions développées spécifiquement pour l’éducation, sous contrôle académique ou ministériel, avec transparence sur les algorithmes, les données d’entraînement, l’hébergement, la sécurité et la conformité réglementaire.

L’urgence de l’éducation aux médias et à l’information à l’ère des deepfakes

Les intervenants insistent fortement sur un point souvent sous-estimé : ce n’est pas tant la génération de textes qui pose les risques les plus lourds, mais la génération d’images et de vidéos. Les IA sont désormais capables de produire des images et des vidéos photo-réalistes, des voix parfaitement imitées, sur la base de quelques secondes d’enregistrement. “Surtout maintenant, il ne faut plus croire ce que l’on voit”, résume Axel Jean.

Pour l’école, cela signifie un renforcement radical de l’éducation aux médias et à l’information (EMI), dès l’élémentaire. Il ne s’agit plus seulement d’apprendre à vérifier une source ou à identifier un journal, mais de travailler directement sur la distinction entre images authentiques et images générées. Par exemple, analyser en groupe plusieurs images, repérer les intrus, argumenter collectivement. Réfléchir à ce qui rend une image crédible, à la manière dont un récit se construit, à la façon dont les émotions sont manipulées.

Les intervenants soulignent un paradoxe inquiétant : nous serions sans doute nombreux, même adultes, à nous tromper si l’on nous proposait un petit test avec plusieurs images, dont certaines générées par IA. Cela rend d’autant plus indispensable un travail explicite en classe. Si l’école ne s’empare pas de ces questions, personne ne le fera à sa place, et les seuls “formateurs” des élèves seront les plateformes et les algorithmes des grandes entreprises du numérique.

Au-delà des outils : former une génération entière à l’IA avec PIX-IA

Sur le terrain, la massification de la formation passe par un levier bien connu des enseignants : PIX. Maxime Barilleau rappelle que la formation au numérique des élèves est déjà inscrite dans le Code de l’éducation (article L312-9), renforcée par la loi SREN, et déclinée via l’attestation de sensibilisation en sixième puis la certification PIX en troisième et en terminale.

La nouveauté réside dans la création de parcours spécifiques “PIX-IA”, consacrés à l’intelligence artificielle, rendus obligatoires pour les élèves de quatrième, de seconde et de première année de CAP. La décision n’est pas symbolique : il s’agit de faire en sorte qu’une génération complète bénéficie d’une formation minimale à l’IA, organisée et suivie, et pas seulement de quelques séances isolées.

Ces parcours se distinguent des exercices PIX classiques. Leur objectif principal n’est pas l’évaluation, mais la formation. Ils sont structurés en deux temps : d’abord un court diagnostic, puis un module de micro-formation personnalisé en fonction des réponses de l’élève. Trois grands objectifs guident ces contenus. Il s’agit d’abord de comprendre ce qu’est l’IA, comment elle fonctionne, dans ses grands principes scientifiques. Ensuite, d’apprendre à l’utiliser de manière sûre et éthique, en travaillant par exemple sur la formulation de prompts, la reformulation, la vérification des réponses. Enfin, de réfléchir à ses impacts environnementaux et sociétaux, ainsi qu’à ses limites : consommation énergétique, biais, effets sur l’emploi, effets sur la démocratie, etc.

Une phase pilote est en cours dans 140 établissements de toutes académies, et les premiers retours montrent un fort engagement des élèves comme des enseignants. Les contenus seront ajustés en fonction de ces retours avant la généralisation annoncée pour l’année scolaire 2025-2026.

Former aussi les enseignants : cadres de compétences, PIX+ÉDU et communautés

Former les élèves ne suffit pas. Les deux intervenants insistent : jamais l’école n’a eu autant besoin de formation systémique, pour tout le monde. Enseignants, formateurs, inspecteurs, cadres, chefs d’établissement doivent eux aussi acquérir un socle minimal de culture sur l’IA, ne serait-ce que pour “voir venir le monstre”, comme le formule Axel Jean. Il ne s’agit pas de transformer chaque professeur en spécialiste de l’IA, mais de donner à chacun de quoi comprendre les enjeux, les limites, les opportunités, afin de faire des choix pédagogiques éclairés.

Plusieurs leviers existent déjà. Les académies proposent leurs propres formations via les Écoles académiques de la formation continue. Un MOOC européen, AI4T, co-construit par cinq ministères (France, Italie, Irlande, Slovénie, Luxembourg, rejoints désormais par d’autres pays), propose un niveau 1 de culture IA-éducation, complété par un manuel ouvert (open textbook) pour aller plus loin. Une communauté en ligne, la CREA, hébergée sur M@gistère, permet aux enseignants de poser leurs questions, d’échanger des pratiques, de mutualiser des ressources qualifiées plutôt que de se perdre dans une surabondance de contenus.

S’y ajoute désormais un dispositif national centré sur les compétences numériques professionnelles : PIX+ÉDU. Depuis 2021, il permet aux enseignants, CPE et autres personnels d’éducation de développer et de valoriser leurs compétences numériques. À partir de janvier, des modules spécifiques sur l’IA y seront intégrés, en lien avec le cadre d’usage. Un premier module permettra de se l’approprier, un second d’interroger l’impact de l’IA sur les pratiques pédagogiques, en particulier sur l’évaluation. Une attestation de compétences numériques professionnelles vient reconnaître l’engagement de celles et ceux qui s’inscrivent dans cette démarche.

Parallèlement, les cadres de référence des compétences numériques, inspirés des référentiels européens DIGCOMP et DIGCOMP-EDU, vont être actualisés. L’idée n’est pas de tout réécrire, mais d’intégrer l’IA dans les compétences existantes : par exemple considérer qu’aujourd’hui, “créer un document multimédia” inclut aussi la capacité à interagir avec une IA générative pour produire du contenu, avec différents niveaux de maîtrise selon le degré d’autonomie et de recul critique.

Souveraineté, écologie, culture : l’IA éducative ne se résume pas à des outils

Au-delà des dispositifs concrets, les deux intervenants abordent de front les questions de souveraineté, de dépendance et de soutenabilité. Ils rappellent que la plupart des grands modèles de langage actuels ont été entraînés sur des masses gigantesques de contenus, souvent sans rémunération adéquate des ayants droit, et sur des bases culturelles majoritairement anglo-saxonnes. Dans le cas d’un modèle comme ChatGPT, environ 8 % seulement de la base d’entraînement serait francophone. Que signifie alors, pour des sociétés non anglo-saxonnes, d’aligner la formation, la culture et les décisions publiques sur des outils fondés sur des “moyennes” culturelles qui ne sont pas les leurs ?

L’autre risque est celui d’une “colonisation” numérique, où un continent comme l’Europe se contenterait d’être un “musée”, consommateur de services conçus ailleurs. Le rapport Draghi, évoqué en conclusion, estime qu’un plan d’investissement massif de type “plan Marshall” serait nécessaire pour que l’Europe reste un acteur et ne se contente pas d’être un marché. Si ce plan se fait attendre à l’échelle des 27, des initiatives bilatérales apparaissent, comme l’accord France–Allemagne autour de Mistral (France) et SAP (Allemagne) pour construire des services d’IA souverains au service des agents publics.

Dans le champ éducatif, cela se traduit notamment par des partenariats d’innovation en IA avec des EdTech françaises et des laboratoires de recherche, afin de développer des services spécifiquement conçus pour l’école : remédiation adaptative en français et en mathématiques (MiA Seconde), assistants pour les langues vivantes, et bientôt outils d’accompagnement des gestes professionnels (correction, suivi d’oral, etc.). La particularité de ces partenariats est d’aboutir à des ressources dont le code, les algorithmes et les données d’entraînement sont accessibles et maîtrisés par le ministère, à la manière de ressources éducatives libres.

Enfin, la question écologique traverse tout le propos. Les IA génératives consomment d’énormes ressources matérielles et énergétiques. Les intervenants invitent à distinguer les usages qui ont une réelle plus-value (santé, climat, recherche scientifique) des usages “gadget” ou purement récréatifs, qui participent à une dispersion massive de ressources pour un bénéfice collectif limité. Là encore, l’école a un rôle à jouer pour former des citoyens capables de questionner le sens de ces usages.

Pour les enseignants : accepter l’incertitude, garder le cap, ne pas rester seuls

Ce qui ressort de cette conférence, c’est moins un catalogue de solutions qu’une ligne de conduite. Les repères bougent, parfois à grande vitesse, et il serait illusoire de croire que l’on pourra tout stabiliser à court terme. L’école traverse une nouvelle “révolution industrielle” en accéléré, non plus sur vingt ans, mais sur trois à cinq ans. Dans ce contexte, les intervenants reconnaissent que les décisions se prennent souvent en “zone d’incertitude”, ce qui est inconfortable pour des institutions attachées à la stabilité.

Pour autant, quelques points d’appui demeurent. Le premier est ce pivot simple : rester centré sur les enseignants et les élèves. Chaque fois que l’on développe un service, un cadre, une formation, la question doit être : en quoi cela aide-t-il les professeurs à mieux faire apprendre les élèves ? Le second est de ne pas laisser l’IA au seul marché. L’école ne peut pas se permettre de rester spectatrice pendant que des plateformes façonnent, sans contrepoids, les représentations et les pratiques numériques des jeunes.

Enfin, les intervenants invitent chacun à ne pas rester seul. Entre les formations académiques, les parcours PIX-IA, les dispositifs PIX+ÉDU, les communautés comme la CREA, les ressources européennes et les cadres d’usage, des appuis existent déjà. Il ne s’agit pas de tout maîtriser, mais d’entrer dans le mouvement, de commencer quelque part, de tester, de questionner, de mutualiser. L’IA à l’école n’est ni un miracle, ni une fatalité. C’est un chantier collectif, exigeant, qui demande du temps, de l’intelligence partagée et une vigilance constante, mais où les enseignants ont toute leur place.

Dernière modification le vendredi, 28 novembre 2025
Cauche Jean-François

Docteur en Histoire Médiévale et Sciences de l’Information. Consultant-formateur-animateur en usages innovants. Vice-Président du Conseil d'Administration de l'An@é.