fil-educavox-color1

Des études neurologiques pourraient être fort utiles pour mieux comprendre les mécanismes de la cognition en général, de l’apprendre en particulier ; elles seraient fort profitables pour mieux structurer les environnements d’apprentissage ou les politiques éducatives, si ces études étaient mieux situées sur le plan méthodologique.

Actuellement, plusieurs principaux biais sur le plan de la problématique et de la méthodologie peuvent être mis en avant qui leur enlèvent toute pertinence.

En effet, les méthodes d’investigation en neurosciences se trouvent être des approches indirectes, très fastidieuses à mettre en place et prenant appui sur une technologie très coûteuse. Les échantillons analysés ou comparés demeurent trop limités.

Il en résulte déjà un manque de fiabilité statistique qu’il s’agit de dénoncer avant toute extrapolation. « Small, low-powered studies are endemic in neuroscience » déclare une méta-analyse publiée dans Nature Reviews Neuroscience[1]. Ces chercheurs ont en effet passé au crible les méthodologies de 740 articles publiés en 2011 dans le champ.

En France, des neuropsychologues comme Fabrice Guillaume[2] nous alertent sur ces limites.

« Le résultat est pour le moins inquiétant : les études examinées présentent une puissance moyenne d’environ 20 % ! Il faut savoir qu’habituellement, la puissance d’un test, c’est-à-dire son aptitude à mettre en évidence une différence lorsqu’elle existe (..), est considérée comme satisfaisante à partir de 80 %. »[3]

De plus, leurs corpus sont fréquemment discutables, notamment dans les études sur les neurodysfonctionnements, car les sujets sont choisis souvent par opportunité, sans critères suffisamment définis au préalable[4].

Déjà quand on regarde de près ces publications, on peut contester certaines approches expérimentales ; elles se trouvent discutables à cause des contraintes techniques, pouvant être ambigües et souvent peu interrogées.

Par exemple, il est difficile de comparer une situation d’interrogation cognitive sous IRMf (voir photo ci-après) et une situation de classe ! Il n’est que de regarder la position du sujet lors de l’expérimentation ou les situations de compréhension (voir image ci-dessous) !

2006 02 08 irm allegra 002 install patient

Equipement IRM pour les études d’IRM fonctionnelle (IRMf)

permettant la présentation de stimuli (visuels, auditifs, nociceptifs), l’enregistrement des réponses du sujet et de ses paramètres physiologiques (clavier, poursuite oculaire infrarouge, paramètres de pouls, respiration et conductance cutanée) ainsi que les enregistrements simultanés EEG

Les catégories envisagées restent dans le flou, notamment quand on compare des méthodes comme on vient de le voir précédemment dont les contours sont mal définis ou quand on met en avant des compétences comme « l’attention » ou la « motivation » dont les caractéristiques varient d’un auteur à l’autre.

Il est anormal que contrairement aux autres domaines scientifiques, les Comités de lectures des revues de références soient si peu exigeants. Ces négligences méthodologiques font peser un doute légitime sur la fiabilité des résultats.

Enfin, l’autre « gros » problème méthodologique résulte des neuroimages, elles-mêmes.

Celles-ci sont produites grâce une grande variété de techniques, basées sur des principes différents. La plus ancienne est l’électroencéphalographie (EEG), mise au point en 1929, par le neurologue Hans Berger. Depuis, ont été développées l'imagerie par résonance magnétique fonctionnelle (IRMf), la tomographie par émission de positrons (TEP), la magnétoencéphalographie (MEG), l'Imagerie spectroscopique proche infrarouge et la mesure du signal optique évoqué. Suivant le type d’études, ce que l’on veut mettre en évidence ou/et les moyens du laboratoire, une des méthodes est privilégiée.

Il est important de comprendre que chaque fois les images obtenues ne sont jamais une image directe de l’activité du cerveau, mais une image reconstruite. Par exemple, l’IRMf repère l'afflux de sang oxygéné dans les différentes zones du cerveau ; celui-ci varie en fonction des situations présentées. Par cette approche, le chercheur suppose repérer les régions du cerveau spécialement actives lors d'une tâche donnée. De même, la TEP mesure les modifications du débit sanguin au moyen d'un traceur radioactif préalablement injecté par voie intraveineuse.

L’image finale présentée dans les articles scientifiques, et souvent reprise par les médias, est ainsi une modélisation ; elle peut même intégrer des résultats statistiques. Dès lors, les paramètres de cette reconstruction, notamment le choix des « fausses couleurs » employées, surdéterminent à la fois l’image obtenue et l’interprétation proposée.

L’image se veut parler d’elle-même, elle fascine tout à la fois ses auteurs et le grand public. Elle exerce néanmoins par son apparente simplicité, et par son attractivité où interviennent de « jolies » couleurs, parfois même des animations,.., une force de conviction intrinsèque. Son pouvoir de séduction en fait une supposée preuve. Elle finit par devenir une réalité objective, difficile à contester. On en oublie les artéfacts mis en place pour obtenir le résultat attendu !

Les dangers de ce type spécifique d’induction sont multiples.

Les interrogations sont variées : que signifie réellement ces corrélations entre circulation du sang, dépense d’énergie et processus psychologiques, surtout que ces derniers restent encore largement inconnus ? De plus, connaître les supports cérébraux d’un processus cognitif ne revient pas automatiquement à l’expliquer. Or à partir de l’observation d’une activation dans une « région » du cerveau, les auteurs en déduisent rapidement –trop rapidement- la présence d’une activité psychologique et mentale particulière…

Cela pose également une question épistémologique sur laquelle nous reviendrons dans le point suivant. Localiser une région cérébrale, la mettre en lien avec un processus ou un comportement n’est valide que si cette région est unique. Or la plupart des zones de notre encéphale ne sont pas spécifiquement dédiées à une seule activité cognitive.

Des neuroscientifiques eux-mêmes, mais ayant moins de visibilté médiatique, dénoncent ce manque de rigueur scientifique, conduisant à des « « résultats anormalement optimistes »[5]. A suivre

Suite de l'article (1) : http://www.educavox.fr/innovation/recherche/les-neurosciences-la-grande-illusion-en-education

André Giordan

Neurophysiologiste et Epistémologue


[1] Katherine S. Button, John P. A. Ioannidis, Claire Mokrysz, Brian A. Nosek, Jonathan Flint, Emma S. J. Robinson & Marcus R. Munafò, Power failure: why small sample size undermines the reliability of neuroscience, Nature Reviews Neuroscience 14, 365-376 (May 2013)

[2] F. Guillaume, G. Tiberghien et J.-Y. Baudouin, Le cerveau n’est pas ce que vous pensez: Images et mirages du cerveau, Presses Universitaires de Grenoble, 2013.

[3] Le Monde de l’intelligence – N° 32 – septembre/octobre 2013

[4] Nombre d’auteurs dénoncent ces biais : D. Ansari, B. De Smedt et R. Grabner, Neuroeducation - A critical overview of an emerging field, Neuroethics, 2012, vol.5, n°2, août, p.105-117.  A. Claeys & J-B Vialatte, L’impact et les enjeux des nouvelles technologies d’exploration et de thérapie du cerveau. Rapport n°476. Paris : Office parlementaire d’évaluation des choix scientifiques et technologiques, 2012. B. De  Smedt,  D. Ansari, R. Grabner et al., Cognitive neuroscience meets mathematics éducation, Educational  Research Review, 2010, vol.5, n°1, p.97-105.

[5] R. Poldrack, The future of fMRI in cognitive neuroscience, NeuroImage, vol.62, n°2, août 2012, p.1216-1220. E. Vul  Edward,  C. Harris, P. Winkielman & H. Pashler Harold, Puzzlingly high correlations in fMRI studies ofemotion,  personality, and social cognition, Perspectives on Psychological Science, vol. 4, n°3, mai 2009, p.274-290. D. A. Turner David, Which part of “two way street”  did  you  not  understand?  Redressing  the balance of neuroscience and éducation, Educational Research Review, vol.6, n°3, 2011, p.223-231

Dernière modification le mardi, 06 février 2018
Giordan André

André Giordan est le fondateur et directeur du Laboratoire de Didactique et Épistémologie des Sciences de Genève. Ancien instituteur, professeur de collège, animateur de banlieue, il  est l’auteur d’un nouveau modèle de l’apprendre (modèle d’apprentissage allostérique) et l’initiateur de nombreuses innovations scolaires, muséologiques et médiatiques. 

Nous utilisons des cookies pour vous garantir la meilleure expérience sur notre site. Si vous continuez à utiliser ce dernier, nous considérerons que vous acceptez l'utilisation des cookies.