Mais ce qui rend les nouvelles encore plus intéressantes c’est, dans la parole de notre nouvelle présidente du Conseil Supérieur des Programmes, Souâd Ayada, la référence à la croyance (“je ne crois pas que l’élève construise son savoir“ — ou formulation analogue).
Je tiens à préciser ma position. D’une part, j’ai le plus grand respect pour la croyance ; je pense, comme Yves Barel (1987), que toute culture se fonde à la fois sur la transcendance ou hétéroréférence (les mythes) et sur l’immanence ou autoréférence (l’argumentation, la réflexion…). Sur l’exemple de la démocratie athénienne, il repère bien la présence de ces deux “composantes“ (ou de ces deux “références“), en remarquant d’ailleurs que nous n’avons quasiment pas de textes qui argumentent la démocratie grecque[1] — peut-être que Démosthènes ou Périclès avaient moins tendance que Cicéron à écrire leurs discours… D’autre part, je trouvais débile que l’enseignement du passé simple se réduise à la troisième personne et je pense, comme Souâd Ayada, que les élèves sont des « usagers de la langue, et non des linguistes ». J’appuierai cette position en estimant que les élèves n’ont pas pour mission d’assurer des débouchés à la recherche universitaire, que ce soit à propos de la langue ou d’un autre objet [2].
Le centre de mon propos, c’est que dans ce qui nous occupe, à savoir l’éducation et l’enseignement, que l’on se réclame de la science ou que l’on s’appuie sur une réflexion de type philosophique (car la philosophie s’est depuis ses origines posée la question de la pensée, donc de la cognition), je trouve que l’on devrait tenir le plus grand compte des tentatives de modélisations scientifiques de l’apprentissage — que je vais rappeler brièvement. Ensuite, dans le débat piégé qui oppose prétendument “pédagogues“ (caricaturés en “pédagogistes“) et “républicains“ (mais que vaut cette tentative d’annexion de la République ?), je tenterai d’éclairer la question du constructivisme.
I - Paradigmes de l’apprentissage
I – 1 Apprentissage : les premiers paradigmes du XXe siècle
« Nous nommons paradigme une théorie suffisamment élaborée, formalisée en tant que "logique" de modélisation [3]. Au cours du siècle, on peut alors repérer, lorsqu'il s'agit de modéliser la situation d'apprentissage, une succession de paradigmes différents, s'opposant, se recadrant, ou s'inscrivant dans des logiques (de modélisation) disjointes.
Comment, au cours de la première moitié ou des deux premiers tiers du XXe siècle, les modes de compréhension ou de conception de l'apprentissage et/ou de la cognition se sont-ils précisés et ont-ils évolué ? Ce qui nous intéresse ici est que concevoir (ou modéliser) l’apprentissage revient à concevoir (ou modéliser) la connaissance, l’intelligence, la pensée. »(Sallaberry et Claverie, 2018, p.32)
Le paradigme « associassionniste »
Au début du siècle, la psychologie outre atlantique est dominée par un courant nommé behaviorisme[4]. Sa logique consiste à étudier la liaison entre les éléments d'une situation et les réponses d'un sujet — d'où le schéma S—R (stimulus-réponse). En ce qui concerne l'apprentissage, ce courant s’appuie sur un empirisme associationniste. Dans cette logique de modélisation, un sujet construit l’idée de cercle à partir de l’observation des divers objets ronds qu’il rencontre, et par association de ces différents objets.
Pour Thorndike par exemple, l'apprentissage consiste à établir une relation entre une situation — ou un stimulus — S (le chat est dans la cage et a faim) et la réponse (appuyer sur le loquet de la grille, ce qui permet d'atteindre la nourriture). Les expériences ainsi menées mettent le plus souvent en scène des animaux, dans une situation où ils doivent soit obtenir une gratification (nourriture), soit éviter une souffrance (décharges électriques), en agissant sur un élément du dispositif (levier, pédale…). On constate régulièrement une diminution de la durée écoulée entre le stimulus (la mise en situation) et la réponse lorsqu’on répète l’expérience. La conclusion habituelle est qu’il y a apprentissage, assorti d’un « renforcement » dû aux répétitions. L’application directe de cette théorie au sujet humain a produit l’enseignement programmé, qui préside encore à la conception de la plupart des logiciels d’apprentissage.
La théorie de la forme — le paradigme « gestaltiste »
Une école (germanique) fonde un autre paradigme, nommé gestalt-theorie (théorie de la forme). Ses expériences sont également animalières, mais privilégient des primates plutôt que des rats. Un grand singe se trouve par exemple dans une cage, au « plafond » de laquelle est accroché un régime de bananes. L’animal bondit énergiquement pour décrocher la nourriture. La hauteur ayant été réglée pour que les fruits soient hors d’atteinte, il n’y parvient pas. Et puis soudain, après avoir repris son souffle, le singe se saisit d’une caisse et d’un bâton (placés dans la cage depuis le début). Il parvient ainsi à décrocher l’objet convoité. Le caractère soudain de la solution amène les tenants de ce paradigme à rejeter toute hypothèse d’association, qui s’inscrit dans la durée.
Pour reprendre l’exemple du cercle, le paradigme gestaltiste prend le contre-pied du précédent. C’est parce que le sujet possède la « forme » cercle qu’il reconnaît les objets ronds. En ce qui concerne la causalité, il faut que "l'idée de cause" existe a priori chez un sujet pour qu'il établisse un lien de causalité entre deux événements. Ainsi, pour les psychologues qui se rattachent à l'école de la Forme, "le problème est une structure, la solution une autre structure. Résoudre le problème consiste à passer d'une structure à l'autre par une restructuration, une réorganisation qui concerne essentiellement le champ perceptif." (Reuchlin, 1977, p.214). Lorsqu'il y a restructuration (du champ de perception) cette réorganisation est brusque (insigth).
La théorie (et le paradigme) opératoire
Piaget pense que la théorie associationniste est une genèse (il y a construction de la connaissance) sans structure (du sujet), et que la théorie de la forme s’appuie sur des structures (les formes), mais sans genèse (les formes sont là). Il va tenter de synthétiser (ou de recadrer) les deux théories, en avançant que le sujet interagit avec l'environnement à l'aide de structures, qu’il complexifie et perfectionne au fur et à mesure de ces interactions. Il développe le concept de structure au point d'en proposer la généralisation (1968). S'appuyant sur la notion de schème [5], la théorie opératoire qu’il bâtit est sans doute ainsi nommée pour l'importance qu'elle accorde, à juste titre, aux opérations que le sujet fait subir aux objets. Chaque fois qu'un sujet fait rentrer un objet dans l'un de ses schèmes d'action — processus d'assimilation de l'objet — on peut considérer que l'objet subit une opération [6]. Mais il est possible de justifier ce qualificatif par la conception opératoire, ou opérationnelle, que ce paradigme propose de l'intelligence.
En effet, penser cette dernière comme capacité d'action sur les objets, c'est faire accéder la notion au stade de concept [7], par opposition à l'imprécision d'autres définitions [8], par opposition au caractère immanent des soi-disant critères auxquels renverraient les significations courantes du terme. La conséquence immédiate d’une telle définition est la possibilité de penser une intelligence en actes, capacité d'action sur des "objets" concrets. Établir une correspondance terme à terme pour vérifier l'égalité de quantités de deux séries d'objets — vérifier en mettant "face à face" des boules rouges et des boules blanches "qu'il y en a autant" — correspond bien à l'intelligence. De même la capacité à varier des déplacements pour atteindre le même point dans l'espace.
Au cours de son développement, il y a un moment où le sujet n'a plus besoin de "faire", d'agir concrètement pour penser — le moment par exemple où il peut penser les déplacements, sans les réaliser, pour en tirer des conclusions. Le sujet, alors, peut "agir en pensée".
Il se représente les objets et ses actions sur ces objets et peut agir sur ses représentations. Et toute la puissance conceptuelle de la définition opératoire de l'intelligence tient dans ce renvoi symétrique qui est aussi une oscillation de notre fonctionnement cérébral, de notre pensée : "penser en agissant" et "agir en pensée". Ainsi, la complexification des structures du sujet l'amène à passer d'une intelligence "concrète" (sensori-motrice) à une intelligence abstraite (fondée sur les représentations), puis à une intelligence formelle (fondée sur les représentations et les opérations).
Le sujet construit son savoir tout en perfectionnant ses structures — au niveau théorique comme au niveau épistémologique, il s'agit d'un constructivisme. Piaget, en reprenant une idée de Bachelard [9], donne ainsi un nom à ce qui devient un principe et une position épistémologique.
Les théoriciens de la médiation (paradigme constructiviste-interactionniste)
Le reproche le plus courant adressé à Piaget est celui d’une théorie qui décrit un sujet au développement « isolé » — ce dont Piaget se défend. Les positions de Wallon, Vygotsky, Bruner vis-à-vis de la théorie de Piaget convergent sur l'importance de l'intervention des autres, et notamment des adultes, dans le développement de l'enfant [10]. Certains auteurs, comme Doise et Mugny, en s'appuyant sur la théorie opératoire tout en tenant le plus grand compte de l'interaction sociale, vont privilégier le "conflit socio-cognitif".
La position de Vygotsky, même si elle peut être considérée comme proche puisqu'il s'agit toujours d'un "interactionnisme social, est plus radicale, puisque pour lui "la vraie direction du développement ne va pas de l'individuel au social, mais du social à l'individuel" (1934). Son hypothèse est ainsi que la pensée « collective » précède la pensée « individuelle », puisque vis-à-vis de la situation d’apprentissage un concept existe déjà au niveau collectif lorsqu’il est proposé à la construction par un sujet — nous allons reparler de cette position au prochain paragraphe. Il construit la notion de « zone proximale de développement », pour repérer la différence entre le développement « déjà réalisé » et celui qui devient possible dès lors que l’adulte aide l’enfant. Si l’activité est centrale, elle est non seulement « individuelle-cognitive » mais aussi « sociale-interactive ». Il considère aussi que cognition et émotion sont indissociables (1998).
Pour Wallon et Bruner, l’acte est également central, mais il est conçu en boucle, l’effet produit — dans le contexte qui est celui de l’acte — ayant un rôle « organisateur » sur l’acte. Plus récemment, Bruner insiste, outre sur l’importance de la médiation d’autrui (1987), sur le caractère structurant de la culture pour la pensée comme pour le développement (1996), en prônant une « psychologie tournée vers la culture » (1997, p.34).
I – 2 Les nouveaux paradigmes de la cognition [11]
C’est dans ce contexte (si les écrits de Vygotsky ne sont connus que plus tard, Wallon est un collègue de Piaget, Bruner est publié par Piaget [12]) que de nouveaux outils de modélisation de la cognition, et donc de la pensée vont apparaître.
Paradigme cognitiviste (fort)
Un paradigme radicalement nouveau prend sa source dans le mouvement cybernétique [13]. Son hypothèse fondatrice peut s'énoncer : "Connaître, c'est effectuer, sur des représentations, des manipulations réglées." (Dupuy, 1994, p.22) [14]. Reprise par Newell et Simon (1972), par tout un pan de la recherche en psychologie — voir par exemple Richard (1990) — elle correspond actuellement au "paradigme cognitiviste fort", l'un des deux grands courants des sciences de la cognition. A partir du constat que deux ou trois diodes [15], suivant leur montage, peuvent réaliser les fonctions logiques élémentaires (telles que « et », « ou »…), il semble possible de modéliser le fonctionnement de notre cerveau et de la pensée. Cela, en poussant plus ou moins loin la comparaison avec le fonctionnement de l'ordinateur, comparaison qui risque parfois, si l'on n'y prend garde, de devenir la "métaphore de l'ordinateur"[16]. Cette logique de modélisation (penser revient à computer des représentations) s'est propagée de manière remarquable en dehors des sphères de la recherche, car il est devenu banal de rencontrer des écrits faisant allusion à la comparaison cerveau-ordinateur, ou pensée-traitement de l'information.
L’intelligence artificielle s’est développée à partir de cette conception. Les "représentations" qui sont utilisées ici, pour être "calculées", doivent, bien entendu, se plier aux règles de la logique formelle [17] : on ne peut donc travailler avec des propositions du genre « je veux a mais aussi non-a ». Par ailleurs, la tentative de réalisation de systèmes experts montre qu’il est bien difficile de bâtir un logiciel d’efficacité comparable à celle d’un expert en chair et en os.
Paradigme connexionniste
Un second courant des sciences de la cognition met l'accent non sur le neurone lui-même — qu'il soit naturel ou artificiel — mais sur les connexions entre neurones— d'où son appellation de connexionnisme. L’apprentissage correspond à des modifications du cerveau liées au degré d’activité corrélée entre les neurones. Si deux neurones s’activent au même moment, leur lien est renforcé ; dans le cas contraire, il est diminué — cet énoncé correspondant au principe de Hebb.
Dans cette logique de modélisation, on peut observer, à partir d'un certain niveau de complexité d'un réseau (de neurones naturels ou formels), des propriétés émergentes [18]. Dans une telle interprétation, la cognition est l’émergence d’états globaux dans un réseau de composants simples. La conscience, le langage, la pensée, sont alors des propriétés émergentes du fonctionnement de notre système nerveux. Conséquence immédiate, ces propriétés sont "distribuées" (et non "localisées")[19]. Elles sont à concevoir comme résultant de l'interaction entre neurones, ou mieux entre "agents"[20].
Aperçu de développements récents[21]
Varela et Edelman
Ces deux grands chercheurs, à partir du paradigme connexionniste [22], amènent des outils de modélisation remarquables[23].
Varela invente l’idée du processus d’autopoièse pour des systèmes qui se produisent eux-mêmes[24] — qu’il va donc qualifier d’autopoiétiques. C’est un enrichissement considérable, à la fois pour la nomenclature des systèmes (puisqu’il s’agit d’une nouvelle classe de systèmes) et pour la notion d’émergence, puisque ce n’est dès lors pas seulement une nouvelle propriété qui émerge au sein d’un système, mais le système lui-même qui se reconfigure et se reconstitue en permanence. Un autre article se chargera de présenter plus amplement les travaux de Varela.
Edelman (1992) élabore une théorie qu’il nomme la TSGN (théorie de la sélection des groupes neuronaux) [25]. Dans la complexité de notre système nerveux, il propose de discerner les groupes neuronaux et les cartes neuronales. Les groupes neuronaux sont fondés sur une sorte de propagation de l'excitation due à la proximité. Les neurones voisins d'un neurone excité (ou activé) ont des chances de l'être aussi, mais construisent une dynamique propre. Les cartes neuronales correspondent à une fonctionnalité (nécessaire à l’accomplissement d’un geste, par exemple). Les cartes interagissent grâce à un processus appelé réentrée, qui amène l’émergence de propriétés nouvelles.
Lorsqu'un sujet agit, il met ainsi en jeu à la fois des groupes neuronaux et des cartes neuronales, cet ensemble étant nommé cartographie globale. Une cartographie globale est une structure dynamique qui couple les sorties d’une multitude de cartes interconnectées de façon réentrante au comportement sensori-moteur.
Changeux
Changeux (2002) propose[26], pour l'apprentissage et la cognition, une conception qui repose sur l'élaboration puis la sélection, par le sujet humain, de pré-représentations, au cours de jeux cognitifs entre le sujet et le monde extérieur. Il se situe clairement du côté du connexionnisme (cf. note 19). Un aspect particulièrement intéressant de l’ouvrage est le lien établi entre le développement du cerveau et les interactions sociétales. Si Bruner intitule l’un de ses ouvrages “Et la culture donne forme à l’esprit“, ce passage de Changeux pourrait se résumer par la formule ‘Et la culture donne forme au cerveau’.
II – La question du constructivisme
II – 1 Les 2 niveaux logiques et la critique du “pédagogisme“
Si j’ai parlé de débat piégé à propos de la fameuse opposition “républicains“ contre “pédagogues“ (montée de toute pièce par les premiers), c’est que, comme le montre l’article pertinent de Pierre Kahn (2006) [27], la « plainte antipédagogique » constitue « une pure construction idéologique : l’invention du discours de l’autre. »
Aporie de la priorité à l’un des deux niveaux logiques
La cognition semble, d’un point de vue “anatomique“, dépendre complètement du cerveau. Mais en même temps elle ne peut se concevoir sans la culture. Se situant ainsi à la fois au niveau logique individuel et au niveau logique collectif[28], elle est paradoxale, comme le sens. On va trouver pourtant beaucoup de monde à penser qu’elle est d’abord une production du cerveau (en s’appuyant au besoin sur Descartes) — ce qui revient à donner la priorité au niveau logique individuel). D’autres au contraire vont donner la priorité à la culture (au niveau logique collectif). C’est le cas de Vygotsky [29], écrivant il est vrai dans un contexte “glorifiant“ le collectif. Une telle priorité (que ce soit à un niveau ou à l’autre) constitue une aporie — on ne peut penser la cognition qu’en articulation avec les deux niveaux logiques.
Le point sur ce qui se déroule à chacun des deux niveaux
Au niveau logique d’une société, la nécessité est bien celle de la transmission de savoirs, de savoir-faire, et d’une culture. Cette transmission, globalement, a bien lieu. On peut se demander – et c’est légitime — si elle s’opère dans des conditions optimales, on peut même s’inquiéter sur son efficacité. Des indicateurs différents, mais convergents dans leurs résultats, amènent l’hypothèse d’une moins bonne maîtrise de notre langue, au sortir de l’école élémentaire et, partant, au sortir de l’enseignement secondaire. Mais à ce jour, personne ne peut penser qu’il n’y a plus transmission.
Au niveau logique individuel, dans la situation d’un apprenant, comme on dit, et ce, qu’il soit enfant, jeune, ou adulte, si l’on se pose la question « que se passe-t-il dans le cerveau de quelqu’un qui apprend ? », qu’avons-nous comme outils de modélisation ? Car nous n’avons manifestement pas de “caméras“ qui pourraient nous montrer de visu ce qui se déroule dans une tête. Nous ne pouvons que tenter de modéliser — et ce sont bien des outils de modélisation que les paradigmes de l’apprentissage nous proposent pour cela. Dès lors, le propos n’est pas de chercher une sorte de “vérité scientifique“, mais plutôt de s’interroger sur la plus ou moins grande pertinence d’une modélisation.
Essayons d’avancer prudemment. Chaque mot employé peut être chargé de sens si l’on n’y prend garde. Parler de ‘calcul’ ou ‘d’algorithme’ connote le paradigme cognitiviste fort. Les termes d’émergence ou de distribution évoquent plutôt le connexionnisme. Essayons donc de parler d’activité, ou d’activation des neurones, pour que nul ne soit a priori en désaccord. Posons donc que lorsqu’un sujet humain réfléchit et apprend, il y a activité de ses neurones et de leurs connexions. Certains travaux amènent à penser que c’est l’ensemble de l’encéphale qui “travaille“ (Prochiantz, Varela, Edelman, par ex…), d’autres cherchent à repérer les zones où l’activité semble la plus intense (Dehaene par ex.). Ce n’est ni l’objet ni la compétence de cet article d’évaluer la pertinence de telle ou telle démarche, de tel ou tel outil.
Je pense que tout le monde peut être d’accord sur la proposition précédente (activité des neurones et de leurs connexions). Bien sûr, on peut penser que selon les cas de figure, cette activité est plus ou moins intense — selon le degré d’attention, d’investissement. Convoquer une idée ou un concept scientifique déjà connu nécessite moins d’effort que préciser, penser vraiment cette idée ou ce concept pour la première fois. Dans ce dernier cas, on peut formuler l’hypothèse que la restructuration de la pensée s’appuie sur une restructuration au niveau de l’activité neuronale [30].
Venons-en maintenant à une question cruciale pour notre réflexion. Qu’est-ce qui (ou qui) commande (ou déclenche) cette activité (cette activation) neuronale ? L’enseignant peut (et doit) inviter, faciliter cette activation en proposant des situations adéquates, mais peut-on maintenir qu’il déciderait de cette activation à la place de l’élève ? Cela semble difficile.
Schématisons l’évolution d’une situation d’apprentissage. Instant t1 = 0, tel concept de la physique (par exemple celui de moment d’une force) n’a pas été présenté à l’élève – de quelque manière que ce soit. À partir de là, les élèves sont confrontés à un dispositif (par exemple une règle qui peut tourner autour d’un axe) et vont devoir expérimenter (dans cet exemple, chercher des équilibres en plaçant sur la règle des masses, qui peuvent être placées à des distances variables par rapport à l’axe). À l‘instant t2 = 30 ou 40mn (cela peut dépendre des groupes de deux qui expérimentent), certains élèves ont non seulement une idée de ce qu’il faut faire pour obtenir un équilibre (fût-ce en tenant la règle d’une main), mais ont remarqué que deux variables interviennent : la valeur de la masse que l’on place — donc du poids, et partant de la force exercée en un point de la règle, et la distance de ce point à l’axe. Ensuite, la comparaison de plusieurs équilibres permet à certains de remarquer que l’invariant est le produit de la force par cette distance à l‘axe. L’idée de prendre en considération une grandeur définie par ce produit est en bonne voie…
Nous avons bien, dans cet exemple, une idée qui émerge, une nouvelle structuration de la pensée (ou une restructuration), avec l’hypothèse qu’elle est sous-tendue par une restructuration au niveau de l’activité neuronale — activité menée, mise en place par l’élève qui agit et réfléchit.
Bien entendu, le concept de moment d’une force a été inventé bien avant cette séance d’expérimentation. Mais en disant cela, nous venons de nous placer dans l’histoire d’une société, c’est -à-dire au niveau logique de cette société. Si nous revenons au niveau logique individuel de l’élève qui vient de remarquer que c’est le produit de la force par la distance à l’axe qui est l’invariant, il est difficile de ne pas constater qu’il a construit quelque chose — ce quelque chose étant l’idée qui fonde le concept de moment d’une force.
Je pense donc, à partir d’un tel exemple (mais on pourrait en convoquer d’analogues, notamment dans ce que la démarche par investigation met en place), pouvoir considérer qu’un élève construit un savoir — il l’invente pour lui, ou le re-invente.
Conclusion
J’ai rappelé les tentatives de modélisations scientifiques de l’apprentissage — je pense en effet qu’elles méritent d’être connues, et prises en compte dans leur ensemble. J’ai ensuite tenté d’éclairer la question du constructivisme, en montrant sur un exemple comment, à partir d‘une expérience, on peut mettre des élèves en situation de construire un concept scientifique.
Références
Andler D., 1992, Calcul et représentation : les sources, in Introduction aux sciences cognitives, s/d Andler, Paris, Gallimard
Bachelard, G., 1934, Le nouvel esprit scientifique, Paris, PUF
Barel, Y., 1987, La quête du sens. Paris : Seuil.
Boysson-Bardies B., de, Comment la parole vient aux enfants, Paris, Odile Jacob.
Bruner, JS., 1958, Les processus de préparation à la perception, in Études d'épistémologie génétique s/d J.Piaget, tome VI Logique et Perception, Paris, PUF.
Bruner J.S., 1990, … Car la culture donne forme à l’esprit, tr.fr. 1991, Paris, Eshel.
Bruner J.S., 1996, L’éducation, entrée dans la culture, Paris, Retz.
Changeux JP. (1983), L'homme neuronal, Paris, Fayard.
Changeux JP. (2002), L'homme de vérité, Paris, Odile Jacob.
Doise W., Deschamps J.C., Mugny G., 1978, Psychologie sociale expérimentale, Paris Armand Colin.
Dupuy, JP, 1994, Aux origines des sciences cognitives, Paris, La découverte.
Edelman G.M. , 1992, Biologie de la conscience, tr.fr. Paris, Odile Jacob
Gazzaniga, M., 1987, Le cerveau social, tr. fr. Paris, Robert Laffont.
Gazzaniga, M., 1998, Le cerveau divisé; Pour la science, n° 251, sept 1998, p.72-79.
Hebb, D.O., 1949, The Organization of Behavior, Wiley, New York.
Kahn, P., 2006, La critique du « pédagogisme » ou l’invention du discours de l’autre, in Les Sciences de l’éducation pour l’ère nouvelle, 2006/4 (Vol.39)
Le Moigne, JL., 1990, La modélisation des systèmes complexes, Paris, Dunod.
Minsky, M., 1988, La société de l'esprit, Paris,InterEditions
Newel A. & Simon H-A, 1972, Human Problem Solving, Prentice Hall, Englewood Cliffs, N.J.
Piaget, J., 1926, La représentation du monde chez l'enfant, réed 1993, Paris, PUF.
Piaget, J., 1945, La formation du symbole chez l’enfant, Paris, 1989, Delachaux & Niestlé.
Piaget, J., 1955, De la logique de l'enfant à la logique de l'adolescent, Paris, PUF.
Piaget J., 1968, Le structuralisme, Paris, PUF.
Prochiantz, A., 1989, La construction du cerveau, Paris, Hachette
Richard, J-F., 1990, Les activités mentales, Paris, Armand Colin.
Sallaberry JC, 1996, Dynamique des représentations dans la formation, Paris, L’Harmattan (Cognition et Formation).
Sallaberry JC, 2000, “ Construction du concept de moment d’une force et représentations — Premiers résultats d’une recherche en cours ”, L’année de la recherche en sciences de l’éducation — 2000 , pp.75-99.
Sallaberry JC, 2004, Dynamique des représentations et construction des concepts scientifiques, Paris, L'Harmattan, (Cognition et Formation).
Sallaberry JC, 2018, TSGN (Edelman) et apprentissage de la lecture, in Ingénierie cognitique Volume 18 – 2 Numéro 1, https://www.openscience.fr/Ingenierie-cognitique
Sallaberry JC & Claverie B., 2018, Introduction aux sciences humaines et sociétales, Paris, L’Harmattan (Cognition et Formation)
Simon, H-A, 1969, The Sciences of the Artificial, tr.fr. Sciences des systèmes, sciences de l’artificiel, (tr. Le Moigne JL), 1991, Paris, Dunod (Afcet Systèmes)
Simon, H. & Newell, A., 1972, Human problem solving, Prentice Hall, Englewood Cliffs
Smolensky, P., 1992, IA connexionniste, IA symbolique et cerveau, in Introduction aux sciences cognitives, s/d Andler, Paris, Gallimard.
Toynbee, A., 1972, L’histoire, tr. fr. Paris, Payot ,1996.
Varela F.J., 1989, Autonomie et connaissance, Paris, Seuil.
Varela, F.J., 1989 b, Connaître les sciences cognitives, Paris, Seuil.
Varela F.J., Thompson E. & Rosch E., 1993, L'inscription corporelle de l'esprit, Paris, Seuil.
Vergnaud, G., 1995, Théorie et concepts fondamentaux, in Apprentissages et Didactiques, où en est-on ? coord. G.Vergnaud, Paris, Hachette.
Vygotsky LS., 1985, Pensée et langage, Paris, Messidor/Editions Sociales
Vygotsky LS., 1985, Le problème de l'enseignement et du développement mental à l'âge scolaire, in Vygotsky aujourd'hui, s/d Sneuwly & Bronckart, Lausanne, Delachaux & Niestlé.
Vygotsky LS., 1998, Traité des émotions, Paris, L'Harmattan (Cognition et Formation).
Wallon, H., 1928, De l'acte à la pensée, Paris, Flammarion, 1970.
Whitehead, A.N. & Russel, B., 1910, Principia Mathematica, Cambrige, Cambridge Mathematical Library
[1] C’est ce que Barel appelle “le silence démocratique“ : « si nous conservons de nombreuses traces (forcément des traces écrites) d’une critique politique et philosophique de la démocratie, nous n’avons pratiquement rien, dans l’écriture, qui relève d’une défense et illustration de la démocratie grecque, et athénienne en particulier. » (p.269)
[2] Arnold Toynbee (1972) explique fort bien qu’à l’instar de tout industriel, un chercheur (un historien dans son propos, mais on peut à l’évidence généraliser aux autres disciplines) a besoin d’un minerai (un corpus) et de débouchés (la possibilité de publier et l’utilisation de ses publications). Mais ce n’est pas une raison pour inscrire dans les programmes scolaires tout produit de la recherche, sans avoir finement évalué l’intérêt, pour les élèves, d’une telle inscription.
[3] L’expression "logique de modélisation" exprime à la fois le sens de paradeigma (paradeigma, modèle) et la conception du paradigme que propose Kuhn (1962), pour caractériser un mouvement scientifique « établi » (institutionnalisé). Dans le domaine de la mécanique, on peut ainsi parler du paradigme de la mécanique classique (que le formalisme adopté soit newtonien ou lagrangien), du paradigme de la mécanique relativiste, du paradigme de la mécanique quantique.
[4] La science du XIXe siècle, se référant au positivisme, ne peut étudier que des objets positifs, c’est-à-dire réels. Ce caractère de réalité, pour la psychologie, présente une difficulté : si le siège de la pensée et du psychisme semble bien être le cerveau, le fonctionnement de ce dernier reste opaque (d’où l’expression de « boite noire »). La psychologie pense alors pouvoir se constituer en tant que science en étudiant le comportement (behavior) — conçu comme objet réel, observable, du psychisme.
[5] Rappelons que le plus simple pour définir un schème est de le considérer comme une série d'actions permettant d'atteindre un objectif. Par exemple, le schème de nidation chez les oiseaux comprend la série d'actions qui sont nécessaires à l'élaboration d'un nid. Vergnaud (1995, p.66) en donne une définition plus structurale, en proposant de la considérer comme "l'organisation invariante de la conduite pour une classe de situations donnée."
[6] Schématiquement, une opération est une "action plus la réversibilité" — une action pensée comme étant réversible.
[7] Un concept rassemble tous les sens du terme, en les dépassant. Il permet de concevoir ce qui jusque-là était seulement évoqué, approché (Lefebvre,1980). Ici, l’une de ses caractéristiques essentielles est d'avoir des bords nets : possibilité de repérer clairement ce qui est ou n'est pas décrit par le concept, possibilité de connaitre les situations concernées — cf. Sallaberry,1996.
[8] Concevoir l'intelligence comme capacité d'adaptation, comme on l’entend souvent, est intéressant mais moins opérationnel. Les situations pouvant varier, sinon à l'infini, du moins beaucoup, à quel type de situation fait-on référence quand on parle d’adaptation ? Par ailleurs, on peut aussi se demander de quel type d'adaptation il s’agit ou, plus précisément, quels sont les critères qui permettent de classer les adaptations possibles. Ne dépendent-ils pas, en fait, des situations ?
[9] « Rien n’est donné. Tout est construit. » (1938, p.14)
[10] On peut ainsi, de ce point de vue, considérer ces trois auteurs comme des "théoriciens de la médiation".
[11] Parler de sciences cognitives, ou de science de la cognition, ou de cognitique, entraîne des choix, ou des positions qui peuvent se révéler très différents. Ces nuances seront explicitées plus loin. Nous parlerons pour l’instant de sciences de la cognition.
[12] Cf le tome VII du traité de psychologie expérimentale, s/d Piaget et Reuchlin.
[13] Cela ne signifie pas, bien entendu, qu'il n'y ait pas de lien ou de contact entre la cybernétique et le structuralisme. Témoins l'intérêt de Piaget pour les travaux de Simon, ainsi que l'émergence de la théorie des systèmes dont Le Moigne (1990) souligne la double origine : cybernétique et structuralisme.
[14] Dupuy précise (p.22) : "L'essentiel, c'est la nature logique des manipulations et des règles en question… L'époque qui précède immédiatement l'histoire que nous allons conter (il s'agit de celle des conférences Macy) a produit des modèles mathématiques tant du système nerveux que des circuits électriques. Il aura cependant fallu le génie de McCulloch et Pitts d'un côté, de Shannon de l'autre, pour comprendre que la modélisation pertinente était en fait de type logique — donc que l'on pouvait décrire en termes logiques le fonctionnement de certains systèmes matériels, mais qu'inversement ces systèmes matériels pouvaient se représenter comme réalisant, voire incarnant la logique, cette forme supérieure de la pensée."
[15] Ce composant pouvant pour le courant être "passant" ou "non passant", il peut exhiber deux états (qui peuvent être codés par 0 et 1) et peut donc être considéré comme neurone "formel" (ou artificiel).
[16] Combien de recherches, avant de s'appuyer sur l'hypothèse de l'existence de deux types de mémoire — mémoire à court terme et mémoire à long terme — se posent sérieusement la question de la probabilité de repérage expérimental des supports neuronaux correspondants, au vu des recherches actuelles en neurologie animale ou humaine ?
[17] Repérable à ses trois principes :
- identité : a est a
- non-contradiction : si p est une proposition et non-p sa contradictoire, p et non-p ne peuvent être ni toutes les deux vraies ni toutes les deux fausses dans le même système logique
- tiers exclus : si on peut comparer la proposition q à p, ou bien q = p, ou bien q = non-p
[18] Pour plus de détails, on se reportera à Dupuy (1994), Andler (1992), Edelman (1992), Varela (1989).
[19] "En accord avec la manière dont nous avons envisagé la genèse et la stabilisation des assemblées de neurones, il paraît au contraire plus raisonnable d'envisager que la "trace" des objets de mémoire se trouve distribuée sur l'ensemble du cortex et, pourquoi pas, sur une grande partie de l'encéphale." (Changeux, 1983, p. 224)
[20] On peut concevoir un agent comme assumant un rôle fonctionnel (il assure une fonction). On peut généraliser en le considérant comme un sous-système, par définition moins complexe que le système global. Cette idée d'interaction ou de coopération (entre sous-systèmes), déjà présente chez Gazzaniga (même s'il reste très influencé par la première cybernétique puisqu'il ne peut concevoir qu'il n'y ait pas de sous-système de pilotage) est notamment développée par Minsky (1988).
[21] Pour plus de précisions, cf. Sallaberry & Claverie 2018 et Sallaberry 2018
[22] Varela enrichit les notions de distribution et d’émergence, Edelman mène une critique serrée du paradigme cognitiviste fort.
[23] Varela (dans l’ouvrage qu’il signe avec Thomson et Rosch, (1993) référencie Edelman. Ce dernier ne cite pas Varela, mais cite et référencie Rosch.
[24] Poihsis (poièsis) signifie, en grec ancien, ‘action de faire’, d’où ‘I création ; II fabrication, confection ; III action de composer des œuvres poétiques’ (Bailly).
[25] « Si nous admettons que les fonctions cérébrales sont bâties selon un processus sélectif, nous devons alors être capables de réconcilier la variabilité structurelle et fonctionnelle du cerveau avec la nécessité d’expliquer comment il effectue des catégorisations. » (p.127)
[26] Présente dès 1983, elle se précise et se développe dans l’ouvrage de 2002.
[27] La critique du « pédagogisme » ou l’invention du discours de l’autre, in Les Sciences de l’éducation pour l’ère nouvelle, 2006/4 (Vol.39)
[28] Russel et Whitehead soulignent l’importance qu’il y a à bien distinguer l’élément de l’ensemble (de la classe). Un stylo, par exemple, ce n’est pas la même chose que l’ensemble des stylos — qui d’ailleurs n’est pas un stylo. Il n’y a que l’ensemble des ensembles à être un ensemble, c’est-à-dire à être membre de lui-même ! Le stylo est au niveau logique de l’élément, l’ensemble des stylos est au niveau logique de la classe. Appliquée à une société, cette distinction repère le niveau logique individuel (niveau logique de l’élément) et le niveau logique collectif (celui de l’ensemble des individus, donc celui de la société).
[29] « Chaque fonction psychique supérieure apparaît deux fois au cours du développement de l'enfant : d'abord comme activité collective, sociale et donc comme fonction interpsychique, puis la deuxième fois comme activité individuelle, comme propriété intérieure de la pensée de l'enfant, comme fonction intrapsychique. » (Vygotsky, 1985, p.111)
[30] J’ai publié des observations sur la manière dont certains élèves se confrontent au concept de moment d’une force (2000, 2004).
Dernière modification le samedi, 26 janvier 2019