fil-educavox-color1

Le vendredi 10 octobre 2025, le Parc du Futuroscope a accueilli la quatrième édition du Forum international du numérique pour l’éducation (In Finé), consacrée à l’intelligence artificielle en éducation et à la citoyenneté numérique. Ce rendez-vous a réuni au Futuroscope des acteurs institutionnels, scientifiques et cadres éducatifs pour une journée d’échanges et de réflexion, retransmise en direct sur le site.

Une conférence de Laurence Devillers

Elle est chercheuse au CNRS sur les impacts civilisationnels de l’IA et les conditions nécessaires à une citoyenneté numérique éclairée. A noter son ouvrage "L’IA ange ou démon ? Le nouveau monde de l’invisible", ou comment déconstruire les mythes pour apprendre à utiliser correctement l'IA à l’École.

L’histoire des IA :

A 16devillersElle a  tout d’abord retracé l'histoire de l'IA, et en particulier des réseaux de neurones. Un parcours progressif de plus de 80 ans, parti de la tentative de modélisation d'un neurone de notre cerveau par les neuroscientifiques américains Warren McCulloch et Walter Pitts et allant jusqu'à l'IA générative d'aujourd'hui et l’avènement de chatt GPT en 2022. Une évolution rendue possible par la disponibilité de corpus de données et de capacités de calcul de plus en plus importants.

Elle distingue alors deux catégories d’IA :

L’IA prédictive qui analyse des données pour prédire une classe. Elle est utilisée dans le domaine de la santé pour détecter certains cancers, pour porter des diagnostics à partir de l’analyse d’images… en météo pour établir des prévisions de plus en plus précises, en cyber sécurité pour détecter menaces et comportements suspects, en agriculture pour optimiser les pratiques…

L’IA générative qui est capable de produire de nouveaux contenus à partir d’un prompt écrit ou oral : conversations, histoires, images, vidéos, musiques…Elle fabrique, à partir de milliards de données, des contenus inédits comme s’ils avaient été créés par un humain mais sans raisonner comme un humain. Elle est aussi capable d’erreurs (« hallucinations »).

Démystifier L’intelligence artificielle :

Capture décran 2025 10 15 162343

Comme dans chacune de ses interventions, Laurence Devillers s’est attachée à démystifier l’IA générative: c’est « une machine extrêmement puissante qui ne comprend rien à ce qu'elle fait ».

Pour expliciter cette affirmation choc : l’IA générative ne produit  ni pensée, ni connaissance, ni intention, ni émotion et toutes les affirmations du contraires sont ni plus ni moins que des messages marketing. Ce n’est qu’une batterie d’algorithmes.

Il faut donc oublier l’idée que l’IA actuelle est l’IA générale proche de l’humain. L’IA n’est ni un assistant, ni un collègue, ni un copain, c’est un outil issu d’un modèle scientifique.

Comprendre les risques et les bénéfices

L’IA n’est absolument pas neutre. Pale copie des données accumulées, elle standardise en mettant bout à bout les éléments les plus statistiquement probables. La machine est consensuelle.

La machine peut fournir des résultats erronés car elle va « chercher à côté » si elle n’a pas la bonne réponse. Les réponses qu’elle donne alors sont inventées et sans base réelle même si elles semblent crédibles.

Il y a et il y aura toujours des biais dans les données…déjà 95% d’entre elles sont en anglais ! On peut certes les minimiser mais aussi apprendre à vivre avec.

Pourtant l’humain augmenté de l’IA est généralement meilleur que l’humain seul ; il est nettement plus productif et les résultats sont de bien meilleure qualité avec chatGPT4. Il faut toutefois optimiser à la fois les données et les usages et garder toute sa vigilance surtout après plusieurs utilisations satisfaisantes.

En effet l’IA est beaucoup moins performante pour les tâches les plus complexes et l’utiliser pour des tâches qu’elle n’est pas en mesure d’accomplir peut nuire aux performances.

Des résultats de recherches pour étayer les propos :

Trois groupes d’étudiants chargés de rédiger un essai avec ChatGPT, sans IA et en solution mixte. Les textes produits avec IA manquent d’originalité, d’engagement personnel et se ressemblent fortement. Les mesures d’activité cérébrale ont révélé une implication cognitive réduite avec peu de créativité et de mémoire sollicitée. A l’inverse les personnes ayant travaillé sans aide montraient une activité neuronale plus riche et étaient plus satisfaits de leur travail. Lorsque l’on a demandé aux utilisateurs de ChatGPT de réécrire leur texte sans assistance,  beaucoup n’en avaient presque aucun souvenir. Le gain de productivité était réel mais l’apprentissage quasi nul. A l’inverse ceux qui avaient tout rédigé eux mêmes ont su mobiliser leur souvenir et ont pu alors enrichir leur production en utilisant l’IA cette fois-ci de manière plus stratégique.

Ne pas se laisser bluffer par l’IA et ne pas faire preuve de naïveté. Laurence Devillers évoque une vision du pire : un cours construit par chatGPT débouchant sur une évaluation faite avec chatGPT puis corrigée par chatGPT et on a là la négation de l’apprentissage.

Réguler l’IA :

Pas seulement avec des lois mais avec des normes. Au vu de la dérégulation en cours aux USA et en Chine on prend conscience qu’il faut mettre des lignes rouges car l’IA est partout y compris dans les objets IA particulièrement délétères aux mains des enfants : des nounours ou poupées sont maintenant dotés de chat GPT.

La chercheuse a aussi soulevé les très nombreuses questions d'éthique associées à l'IA. Que l'on parle des biais qu'elle engendre et des méthodes discutables pour tenter de les corriger, de la non-transparence des algorithmes ou encore de la difficulté d'accès aux sources d'information servant à l'entraîner.

Il faut « agir avec raison dans l'incertain ».

La conférence s’est terminée sur une note optimiste :

« On va aller vers quelque chose de positif avec les IA mais en étant vigilants collectivement c’est à dire en faisant appel à notre intelligence collective » et en l’éduquant.

Jacques Puyou

*Laurence Devillers

Professeure en informatique appliquée aux sciences humaines à Sorbonne Université
Directrice de la chaire Human-machine affective interaction and ethics (HUMAAINE) au CNRS
Présidente de la Fondation Blaise Pascal pour la diffusion de la culture scientifique en mathématiques et informatique pour toutes les citoyennes et tous les citoyens
Auteure de plusieurs ouvrages dont Des robots et des hommes, les robots « émotionnels » et La souveraineté numérique dans l'après-crise.
Ses domaines de recherche portent principalement sur l'interaction homme-machine, la détection des émotions et la robotique affective.

Dernière modification le mercredi, 15 octobre 2025
Puyou Jacques

Professeur agrégé de mathématiques - Secrétaire national de l’An@é