Imprimer cette page

Clément Fantoli est Professeur de Technologie, chef de projet de l’observatoire national des pratiques pédagogiques de l’IA en éducation, au sein de la sous-direction de l’innovation, de la formation et des ressources de la DGESCO : Ce qu’on regarde... et ce qu’on oublie. "Je suis enseignant, et comme beaucoup de collègues, je suis plongé depuis plusieurs mois dans les débats autour de l’intelligence artificielle générative. ChatGPT, Mistral, les générateurs d’images : ces outils sont au cœur des discussions dans nos salles des profs, dans les médias, dans les formations. Comment les utiliser en classe ? Faut-il les interdire ? Les encadrer ? Former les enseignants ? Toutes ces questions sont légitimes, et elles prennent une place immense dans notre quotidien professionnel "

Mais, à force de concentrer notre attention sur ce type d’IA visible et spectaculaire, on en oublie une autre, bien plus discrète, mais peut-être plus influente encore : les algorithmes de recommandation. Ceux qui agissent dans l’ombre, dans les téléphones de nos élèves (et les nôtres), dans leurs usages du soir et du week-end. Ceux qui ne répondent pas à leurs questions, mais qui sélectionnent ce qu’ils vont voir, écouter, consommer ensuite.

Ces IA ne produisent rien, mais elles organisent tout. Présentes sur TikTok, YouTube, Instagram, Spotify, Netflix, elles déterminent, sans bruit, ce que nos élèves verront dans l’instant qui suit. Et elles ne le font pas pour les aider à apprendre, mais pour les garder captifs le plus longtemps possible.

Il est urgent qu’on s’y intéresse.

Les algorithmes de recommandation : des IA discrètes mais puissantes

1 753019671227

Un algorithme de recommandation, c’est une forme d’IA qui analyse en permanence le comportement d’un utilisateur : ce qu’il regarde, à quelle vitesse il fait défiler, ce qu’il like, ce qu’il commente, ce qu’il zappe. À partir de là, il tente de prédire ce qui retiendra son attention juste après. Et à chaque interaction, il apprend. Encore. Et encore.

En tant qu’enseignant, je le vois bien : ces IA ne sont pas marginales. Elles sont partout. Elles dictent l’organisation de la page d’accueil de Netflix, les vidéos proposées après une chanson sur YouTube, les réels qui s’enchaînent sur Instagram, et surtout le flux "Pour toi" sur TikTok. Leur logique est simple : ne jamais vous laisser repartir.

Ce ne sont pas des IA qui comprennent, qui raisonnent, qui débattent. Ce sont des IA qui captent. Et chez des adolescents en pleine construction cognitive et émotionnelle, le risque est grand. Très grand.

Source : Gomez-Uribe, C. A., & Hunt, N. (2016). The Netflix Recommender System: Algorithms, Business Value, and Innovation. ACM Transactions on Management Information Systems.

Un temps d’écran artificiellement allongé

1 2 753019695512

En salle de classe, on entend souvent les élèves dire "j’ai juste regardé deux vidéos, et je me suis couché à 1h30". Ce n’est pas une figure de style. C’est le résultat d’un mécanisme algorithmique d’une redoutable efficacité.

Selon Santé publique France (2025), les enfants de 6 à 17 ans passent en moyenne 4 h 11 par jour sur un écran hors temps scolaire ; chez les 6‑14 ans, ce chiffre montre une nette augmentation par rapport aux années précédentes Ce n’est pas un usage maîtrisé ou rationnel. Ce temps est façonné, provoqué, étiré par un design pensé pour capter.

Je l’ai constaté moi-même : les élèves arrivent parfois fatigués, distraits, incapables de rester concentrés quelques minutes. Et quand on creuse un peu, on découvre des soirées entières passées à swiper, à "scroller", sans même s’en rendre compte.

Les études le confirment : à mesure que le temps d’exposition augmente, la capacité d’autorégulation diminue. Plus on reste longtemps, plus il est difficile de décrocher. Et ce n’est pas qu’un problème d’attention : le sommeil, l’humeur, l’estime de soi en sont également affectés.

Sources :

Santé publique France (2025). Enquête sur les usages numériques des enfants et adolescents.

Zannettou, S., Finkelstein, J., Bradlyn, B., & Blackburn, J. (2023). Analyzing User Engagement with TikTok’s Short Format Video Recommendations using Data Donations.

Effet tunnel : des contenus de plus en plus ciblés, de moins en moins variés

1 3 753019612415

On parle souvent de la bulle de filtre dans les médias, mais chez les jeunes, cette bulle est algorithmique, visuelle, émotionnelle. Et elle commence très tôt.

Quand un élève commence à s’intéresser à un sujet, disons les jeux vidéo ou le sport, les algorithmes ne vont pas lui proposer autre chose. Ils vont le conforter, renforcer son intérêt, puis saturer son environnement numérique de ce même type de contenus. Résultat : l’élève ne découvre plus, il consomme en boucle.

Je pense à certains élèves qui n’ont, littéralement, jamais vu autre chose que des vidéos de musculation, de clashs ou de conspirations. Non pas parce qu’ils refusent le reste, mais parce qu’ils n’y ont plus accès. L’IA a verrouillé le tunnel.

L’ONG Amnesty International a montré près de 45 % des contenus proposés aux adolescents après plusieurs heures sur TikTok concernent la santé mentale ou des sujets sensibles.

Source : Amnesty International (2023). TikTok risks pushing children towards harmful content.

Ce n’est pas une question de volonté : c’est une captation de l’attention

1 4 753019749766

On ne peut pas reprocher à nos élèves de manquer de volonté. Ce serait injuste. Ce qu’ils affrontent, ce sont des dispositifs conçus pour être irrésistibles.

Derrière chaque vidéo qui s’enchaîne, il y a une architecture bien pensée : le scroll infini, l’autoplay, les sons calibrés, les couleurs optimisées. Tout est fait pour éviter le vide, pour supprimer la possibilité de dire "stop".

Je le ressens aussi comme adulte. Je me surprends parfois à rester plus longtemps que prévu sur une plateforme. Et je suis censé être un adulte averti, formé, capable de recul. Alors imaginons ce que cela produit sur un enfant de 12 ou 14 ans.

Source : Harris, T. (2017). The Center for Humane Technology. Extrait : « We’ve put AI in charge of influencing human behavior, and it’s winning. »

Pourquoi il faut une éducation à l’IA dès le plus jeune âge

1 5 753020091815

Ce constat peut sembler décourageant. Mais je crois au contraire qu’il est mobilisateur.

Nous devons intégrer ces réalités dans notre mission éducative. Pas en interdisant, pas en diabolisant, mais en expliquant. En rendant visible ce qui ne l’est pas.

Dès le plus jeune âge, les élèves doivent comprendre :

  • Qu’un fil d’actualité est construit par une machine.
  • Que ce qu’ils voient n’est pas le fruit du hasard, ni de leur liberté.
  • Que leur attention est monétisée, instrumentalisée.

Cela demande des mots simples, des exemples concrets, des expériences partagées. Cela demande aussi de les outiller : mettre en pause, choisir de s’ennuyer, désactiver les notifications, reprendre la main sur leurs usages.

Source : Drushchak, Y., Tyshchenko, Y., & Polyakovska, I. (2025). Towards Responsible AI in Education: Hybrid Recommendation System for K-12 Students.

Ce n’est pas une utopie. C’est une urgence éducative. Une forme nouvelle d’alphabétisation, qu’on pourrait appeler "littératie algorithmique". Et plus nous commencerons tôt, plus nous aurons de chances de créer des habitudes numériques saines, conscientes et libres.

En conclusion, voir ce qui ne se voit pas !

Je ne prétends pas avoir toutes les réponses. Mais en tant qu’enseignant, en tant qu’adulte, je pense que nous devons regarder ailleurs. Pas seulement du côté des IA qui font du bruit. Mais aussi de celles qui façonnent les comportements sans un mot.

Ces IA ne sont pas des ennemies. Mais elles ne sont pas neutres. Elles influencent nos élèves bien plus qu’on ne le pense. Et elles le font à travers leurs goûts, leurs routines, leurs fragilités.

Former des citoyens éclairés à l’ère de l’IA, ce n’est pas uniquement leur expliquer comment utiliser ChatGPT. C’est leur apprendre à reconnaître quand une machine les influence, les oriente, les enferme.

Voir ce qui ne se voit pas, c’est le point de départ. Ensuite vient l’envie de choisir, de comprendre, de ralentir. Et c’est peut-être cela, le vrai défi de l’éducation à l’intelligence artificielle.

Clément Fantoli

(Tous nos remerciements pour le partage)

https://www.linkedin.com/pulse/et-si-lintelligence-artificielle-qui-influence-le-plus-fantoli-0jyje/

Images générées avec l'intelligence artificielle

Dernière modification le lundi, 01 septembre 2025
An@é

L’association An@é, fondée en 1996, à l’initiative de la création d’Educavox en 2010, en assure de manière bénévole la veille et la ligne éditoriale, publie articles et reportages, crée des événements, valorise les innovations, alimente des débats avec les différents acteurs de l’éducation sur l’évolution des pratiques éducatives, sociales et culturelles à l’ère du numérique. Educavox est un média contributif. Nous contacter.