Examen répété du ou des même(s) sujet(s) à des temps successifs








télécharger 290.07 Kb.
titreExamen répété du ou des même(s) sujet(s) à des temps successifs
page1/3
date de publication07.07.2017
taille290.07 Kb.
typeExam
l.21-bal.com > loi > Exam
  1   2   3
Apprentissage Cognitif Moteur
Partie 1 : Introduction
1. Qu’est ce que l’apprentissage ?

Cf. Triangle didactique


Connaître l’apprentissage permet de se servir de la pédagogie et la didactique.
Définitions

«  Modifications, chez l’individu, de sa capacité à réaliser une tâche sous l’effet des interactions avec son environnement. Selon le contexte, ce terme désigne le processus ou le résultats du processus », dictionnaire de la psychologie.

« Il y a apprentissage lorsqu’un organisme, placée plusieurs fois dans la même situation, modifie sa conduite de façon systématique et relativement stable », REUCKLIN – 1990.


Conceptions importantes

Importance de la répétition et environnement = toute acquisition n’est pas forcément un apprentissage.

  • Relation apprentissage/développement :

    • Acquisition liée au développement = maturation du SNC, ce n’est pas un apprentissage.

    • Impossible d’avoir un apprentissage sans développement = CONSTRUCTIVISME.

    • L’enfant est lié à l’autre = influence mutuelle.

    • Apprentissage et développement sont intégrés et/ou confondues.


Notion de stabilité temporelle

Importance de cette notion en EPS = appliquer cet apprentissage à toutes les situations. Référence au maintien de cet apprentissage dans le temps (combien de temps ?).
Notion de processus ou résultat du processus

Selon la discipline, il sera différent. En terme de résultat, l’apprentissage permet d’acquérir :

  • Savoir déclaratif : acquérir de nouvelles connaissances, les organiser et les associe à un savoir antérieur.

  • Savoir déclaratif consistant à acquérir des stratégies : pour résoudre des problèmes, c’est une procédure. Dans les APS, ce sont des règles d’action (importante en début d’apprentissage).

  • Savoir procédural : cela correspond à une habileté motrice (capacité à réaliser une tâche motrice avec un maximum de précision et un minimum de coût).


2. Méthodes d’étude de l’apprentissage

2.1. Les différentes approches

    • Approche longitudinale : examen répété du ou des même(s) sujet(s) à des temps successifs.

    • Approche transversale : utilisation d’échantillons différents correspondant à des niveaux d’expertise distincts.

    • Approche séquentielle ou mixte : mélange des 2 premières approches. On va choisir des échantillons de sujet avec des niveaux d’expertise différents examinés à des temps successifs.


2.2. Les méthodologies

L’observation est l’enregistrement direct du comportement du sujet et de leur évolution par les organes des sens de l’observateur ou des moyens artificiels.

Les tests sont la passation d’épreuve standardisée avec des conditions d’application et des modes de rotation fixés.

La méthode clinique est l’étude de la personne dans sa globalité. Cela se déroule en 2 temps : observation et interrogation = moyen d’appréhender l’apprentissage.

La méthode expérimentale est le mode d’investigation scientifique qui consiste à effectuer une intervention sur le réel.

Partie 2 : Les premiers modèles d’apprentissage
Méthode expérimentale (standardisé un maximum de sujet). C’est la psychologie qui étudie l’apprentissage et c’est en 1879 qu’elle devient scientifique grâce à WUNDT qui a fondé le 1er institut de psychologie à Leipzig. Conception de la méthode expérimentale.
1. Le Behaviorisme et ses antécédents

1.1. Introduction

Les associationistes ont supposé qu’il y avait apprentissage car on associe 2 éléments qui seront appris simultanément = conception propre à PAVLOV, THORNDIKE. Ils utilisent les mêmes méthodes que les béhavioristes mais historiquement, c’est faux. Création du béhaviorisme par WATSON en 1913 car il a donné les outils et les méthodes d’étude et du béhaviorisme.

Les principes propres à ce courant sont :

  • Travailler identiquement avec l’Homme et l’animal car difficile d’observer.

  • L’introspection n’a pas de valeurs scientifiques.

  • Il faut considérer que l’esprit est une boîte noire n’ayant aucun accès. Il reste le stimulus (ce qui rentre) et la réponse = c’est un comportement.





On peut résumer ceci en S → R = on ne se préoccupe pas de l’esprit.
1.2. Conditionnement classique ou répondant

1.2.1. Les principes de ce conditionnement

Découvert par PAVLOV avant 1913. Ce n’était pas à l’origine un psychologue mais un biologiste (étude de la salive d’un chien).

Les chiens salivent avant la présence de nourriture. Tout individu a des réflexes (= réponse programmée génétiquement par rapport à une stimulation de l’environnement) = stimulus conditionnel. Stimulus inconditionnel = objet en présence. Le déroulement du conditionnement est :

    1. SI (nourriture) → RI (salive)

    2. SN (bruits du soigneur) → SI (nourriture) → RI (salive)

    3. SC → RC (salive) = cela devient un SC par la répétition.


HYPOTHESE : Association de 2 stimulus (SI et SN) ?


HULL dit que si on supprime le SI, il n’y aura pas de changements de RI. Contrairement, PAVLOV dit que si l’on supprime le SI, il n’y aura plus de RI. C’est l’hypothèse de PAVLOV qui est validée.
1.2.1.1. Les indicateurs de conditionnement

Il existe différents types de principes observables :

      • Les fréquences de réponse (1)

      • L’amplitude de la réponse (2)

      • La latence de la réponse : temps séparant un SI et un RI (3)


1.2.1.2. Les lois d’association

La loi de répétition

Elle renforce le lien entre le SI et RC comme il va être étudié. On pourra remarquer qu’au départ, peu de gouttes de salives et une augmentation forte puis l’apprentissage diminue et stagne. Courbe négativement accélérée = loi de la pratique (découverte par SNOODY). Courbe typique de l’apprentissage moteur. Cette loi n’est pas forcément la même pour tous. Elle n’est pas systématique = il peut y avoir conditionnement sans répétition lorsque le sujet est confronté à un évènement traumatisant (phobies).


La loi de contiguïté

Il ne peut y avoir association en 2 évènements que s’il y a contiguïté temporelle entre les 2. On s’intéresse tout d’abord, à l’ordre ou encore à l’intervalle entre SI et SC. Dans cette loi, on aborde 2 points :

  • Ordre temporel

Il existe 4 conditions d’associations (expérience de PAVLOV) :

  1. Conditionnement de délai : le SC apparaît avant le SI et persiste jusqu’à ce que le SI disparaît.

  2. Conditionnement trace : le SC apparaît et disparaît avant le SI.

  3. Conditionnement simultané : le SC apparaît et disparaît en même temps que le SI.

  4. Conditionnement inversé : le SI apparaît et disparaît avant le SC.


Résultats du conditionnement

Aucune difficulté pour conditionner un animal = rapide et fort (1).

Aucune difficulté pour conditionner un animal = plus petit (2).

Différence de la théorie des associationistes : il n’y a pas de conditionnement. Ceci est dû au fait que le SI, étant très fort, détournerait l’attention du SC donc le sujet ne perçoit pas le SC donc pas d’apprentissage (3).

Pas d’apprentissage, ce conditionnement ne fonctionne pas (4).
Pour avoir conditionnement, le SC précède le SI pour permettre de prédire l’arrivée du SI. Il est informatif. EGGER et MILLER (1962) ont prouvé cette théorie. Comment ? Ils ont utilisé 2 SC. Le 1er SC est plus fort (la cloche).




  • Délai optimal

MOELLER (1954) fait varier la durée entre le SC et le SI (250 ms, 450 ms, 1s, 5s). Il enregistre la réponse électrodermale de la peau = réponse en terme de sudation. On peut l’enregistrer en mettant un courant électrique sous la peau (= détecteur).


Le délai agit sur l’apprentissage. Le délai optimal pour un conditionnement le plus efficace est de 450 ms.
La loi de contingence

Introduite par RESCORLA (1966). La contiguïté ne suffit pas pour l’apprentissage. Il le prouve grâce à une expérience en 3 phases :

    1. Des chiens dans des boîtes à obstacle. S’il saute, pas de choc électrique.

    2. On les sort de la boîte. Diviser en 3 groupes : G1 = un son (SC) puis un choc électrique. G2 = même nombre de son (SC) puis même nombre de choc (SI), puis passage du SI au SC. G3 = présentation aléatoire, SI-SC-SC-SI même nombre de SI et SC.

    3. On remet les chiens dans la boîte. SC de la phase 2. Quelle est la réaction du chien ? Ceux du G3 apprennent moins vite que ceux du G1. Pour RESCORLA, le plus important est la contingence prenant la probabilité que SC soit suivi de SI mais aussi la probabilité qu’il ne le soit pas.


1.2.1.3. Extinction et récupération spontanée

Intérêt de PAVLOV pour le devenir de l’apprentissage. Que se passe t’il quand le SC n’est plus en contact avec le SI ? Il y a une extinction c'est-à-dire une disparition progressive de RC lorsque le SC est présenté seul jusqu’à disparition complète. Que se passe t’il auprès du cerveau ? Est-ce une disparition du lien ?

Arguments contre cette idée

Il n’y a pas de perte au niveau cortical (1). La récupération spontanée : lorsque l’extinction est complète et que l’on attend un certain délai, il y a une réapparition du RC lorsque l’on présente à nouveau le SC (2).

Hypothèse de PAVLOV : elle n’est pas disparue mais la réponse doit être inhibée. Elle consisterait à empêcher l’activation du SI.

La validation de cette idée a été prouvée plus tard de type neurophysiologique (des neurones ont pour but d’inhiber d’autres neurones), de type conditionnel (inhibition conditionnée en 2 phases : établir 2 conditionnements puis un nouveau).
1.2.1.4. Autres phénomènes

Conditionnement de 2nd temps

SN → SI → RI = conditionnement normal

SC → RC ╝ Le conditionnement de 2nd temps part d’un RC c'est-à-dire de quelque chose qui a déjà été conditionné. Indispensable pour l’apprentissage.

Contre conditionnement

Eliminer un RC en associant le SC à un SI en relation avec une épreuve différente.

SC → SI → RI

╚ SI → RI
La généralisation

A chaque fois que l’on a un conditionnement, il se produit une généralisation c'est-à-dire que la personne ne répond pas seulement au SC mais à tous les stimuli proches.

La discrimination

C’est l’inverse de la généralisation. Elle permet, grâce à un conditionnement, une différenciation de 2 stimuli proche. Dans la nature, la survie d’un animal dépend de cette discrimination.
1.2.2. Exemples d’application du conditionnement classique

Les travaux de WATSON sur la peur

Un enfant de 11 mois est mis dans une pièce où l’on présente un rat blanc. Il est curieux et va essayer de le toucher. WATSON va frapper un marteau sur une barre au moment où l’enfant va toucher le rat. Au bout d’une semaine, comportement différent, il est craintif vis-à-vis du rat. 5 fois de suite la même expérience. L’enfant change radicalement de comportement, il a peur. WATSON a créé une phobie. Nouveau phénomène = généralisation de ce comportement. Il a peur de tout ce qui a une fourrure blanche. L’enfant a eu un contre conditionnement.
Conditionnement à l’éveil

Apparition dans des situations nouvelles ou stressantes. Préparation du corps (pression artérielle, sécrétion de l’adrénaline). Cet état est conditionnable. Un son est suivi d’un choc électrique.
SI (= choc) → RI (= éveil)



SN (= son)
Travaux sur la faim

On prive les rats de nourriture puis on les met dans une boîte (un son + de la nourriture). On répète cette expérience plusieurs jours. Un test consistant à mettre les rats dans une boîte (nourriture mais pas de son). Quand ils ont mangé, on remet le son et les rats se remettent à manger (= 20% de leur capacité normale en plus).
Les thérapies comportementales

Réapparition du béhaviorisme dans les années 60 sous cette nouvelle forme.


Dans cet esprit, il y a différents aspects. Conflits entre ces instances. Ce conflit doit s’exprimer, selon FREUD, dans le comportement d’une manière déguisée. Anxiété du FAWS (= représentation du pénis).


    • Désensibilation systématique

Introduite par WOLPE (1968). Principe du contre conditionnement :

    1. Développer une hiérarchie d’anxiété : établir une liste des comportements du + ou – anxieux.

    2. Enseigner des techniques de relaxation

    3. Confronter le patient à son angoisse tout en utilisant en même temps la relaxation.




Extrêmement court et efficace pour les phobies, pour les prises de paroles en public, pour les tocs.


    • La thérapie aversive

Son but est de provoquer l’évitement de situations en transformant un SC+ en un SC-.
1.2.3. L’apprentissage instrumental de THORNBIKE

1er à faire le conditionnement opérant. Travail sur l’apprentissage et l’intelligence sur l’animal. Création des boîtes à problèmes (petite boîte fermée par une porte pouvant s’ouvrir uniquement de l’intérieur par une pédale). Enregistrement du temps que l’animal va mettre pour sortir. 2 comportements possibles :

      • Apprentissage incrémentielle : on apprend par petit pas.

      • Apprentissage par insight : l’animal échoue à la tâche jusqu’à ce qu’il trouve la solution = il l’a appris = diminution du temps pour sortir.


Il les a testé chez différents animaux. Au départ, l’animal est inactif puis des séries de mouvements et par accident, il ouvre la porte. La fois suivante, c’est pareil. Le temps diminue progressivement = APPRENTISSAGE incrémentiel par essais et erreur. Sélection progressive de réponse pour qu’il y en ait une seule. Importance incrémentielle : importance de la sélection. A partir de là, établissement de 2 lois :

      • Loi de l’exercice : une réponse renforcée par un stimulus agréable tend à persiste et inversement (repris par SKINNER).

      • Loi de l’effet : la force de la relation entre la situation et la réponse. Elle dit que tout comportement conduisant à un état satisfaisant de l’organisme tend à accroître la force de la connexion entre la situation et la réponse. L’inverse est vrai. Cela tend à accroître aussi (même début). Toute réponse négative ne change rien à la force de connexion.


1.2.4. Conditionnement opérant de SKINNER

Il n’a pas découvert le conditionnement opérant mais il les explique avec un nouveau matériel expérimental.
1.2.4.1. Matériel expérimental

Boîte de SKINNER : une petite boîte avec un levier relié à la nourriture. Le levier est proche mais pas au même niveau que la nourriture. Les mouvements de levier sont enregistrés en continu, chaque mouvement va déplacer un crayon sur une feuille. Cette feuille se déroule en fonction du temps à une certaine vitesse (axe des x) et la réponse (axe des y). A chaque fois, le rat appuie.
1.2.4.2. Le principe

Au départ, le rat a son comportement habituel et par hasard, appuie sur le levier et petit à petit apprentissage. Le rat appuie de + en + souvent. Même chose de THORNDIKE. La différence est dans le processus sous jacent, il induit un renforcement sur la bonne réponse. Le renforcement va sélectionner une réponse, il va y avoir 2 choses.



1.2.4.3. Différentes formes de conditionnement

1ère possibilité : 2 phases (privation – mis dans la boîte). Le rat reste inactif et n’appuie pas sur la pédale. Pour qu’il apprenne, on utilise une stratégie du conditionnement classique. Sont associés à la nourriture. Mon son est conditionné donc l’animal appui par avoir entendu le son donc nourriture.
2ème possibilité : SHAPPING = procédure de façonnement. Il consiste à renforcer tout, proche de celui que l’on dessine. Renforcer : j’utiliser le shopping quand je cherche un comportement qui n’est pas dans le répertoire du sujet.
1.2.4.4. Différentes formes de renforcement

Renforcement plus fort : il accroît la fréquence de RC.

    • Renforcement primaire : c’est un stimulus essentiel pour la survie de l’individu. Il fonctionne dès la naissance (ex : l’eau, la nourriture…).

    • Renforcement secondaire : c’est un stimulus qui a acquis des propriétés de renforcement par l’expérience.

    • Renforcement social : compliment, affection. Il fonctionne dès la naissance.


Renforcement moins fort

Il réduit la RC par la présentation d’un stimulus aversif.
1.2.4.5. Résultats du Conditionnement opérant

Par la généralisation

L’animal ne répond pas qu’au stimulus que lui a été persuadé. Le nombre de réponse donné sera plus important si le stimulus nouveau est propre au SC, appui quand il s’en éloigne. C’est ce gradient qu’on utilise.
Discrimination

2 stimulus mais un seul est renforcer.
Extinction

Il y aura une extinction s’il n’y a pas renforcement.
Comportement superstitieux

Les chercheurs ont voulu savoir ce qu’ils se passaient si on renforce le conditionnement de l’animal. C’est un animal qui fait quelque chose qui ressemble d’un rituel pour obtenir la récompense et se comporte comme si le comportement superstitieux pouvait lui apporter de la nourriture. Chez l’homme, c’est pareil. Par hasard, un comportement est renforcé et cet individu cherche à viser ce comportement.
Les chaînes de réponse

Ce sont des comportements qui s’appellent successivement les uns les autres, ce sont des comportements qui une fois installés vont acquérir le statut d’automatisme. Dans une chaîne, on a une réponse A qui stimule une réponse B qui sert de stimuli à une réponse C : on obtient ainsi une cascade de comportement. Chez l’homme, on a sans arrêt des cascades de réponse (lever, habiller, petit déjeuner…). On fait des choses de manière automatique, qui n’ont plus besoins d’attention qui sont libérés pour d’autres éléments.
1.3. Programmes de renforcement

1.3.1. L’effet du délai de renforcement

On s’intéresse au délai qui sépare la présentation de la réponse de renforcement. Etudiée par WOLFE (en 1934). On met des rats dans un labyrinthe en T, il doit choisir s’il part à gauche, et à droite, la nourriture est dans un seul côté. Il introduit un délai entre la réponse (partir à gauche ou à droite) et la nourriture, de 0 à 60s, puis un délai de 20 mm. Résultats :

      • Aucun problème pour le délai de 0 à 60s, l’animal apprend.

      • Passer 60s, le conditionnement est plus difficile mais existe encore jusqu’à 20 minutes.


Le délai est repris avec des variantes par GRICE en 1949 qui a changé le labyrinthe. Hypothèse : le rat attend dans le labyrinthe de WOLFE dans un couloir en couleurs. Il pensait donc que le renforcement était fait sur le couloir et non sur la décision. Il a donc fait un labyrinthe avec des allées de couleur grise ou le rat attend sa nourriture. Il utilise des délais de 0 à 10 secondes. On obtient très rapidement avec un délai immédiat, on a 100% de réponse. Avec 0,5 seconde, 100% de réponse mais plus lent (100 essais). A partir de 10 secondes, il n’y a plus de conditionnement possible. Entre 0,5 et 10 secondes, cela devient difficile.
1.3.2. L’effet de l’amplitude du renforcement

Quel doit être l’intensité du renforcement ? Effet différent de l’intensité selon que le renforcement soit + ou -.
Les renforcements positifs

CRESPI (en 1942) met des rats dans une boîte à but = long couloir et au bout, il y a de la nourriture que l’on distribue.

  1. Quand le rat arrive, on lui donne une petite boulette de viande (renforcement positif, amplitude faible).

  2. Quand le rat arrive, on lui donne une grande boulette (intensité moyenne).

  3. Quand le rat arrive, 256 grandes boulettes (amplitude forte).


Quelle est la vitesse de course du rat ?

Si le rat a appris qu’il y a nourriture au bout, il doit courir plus vite. Résultats : plus l’amplitude est élevée, il donne une grosse boulette à tous les rats systématiquement. Si les résultats sont liés à un apprentissage, il devrait y avoir une progression pour une boulette et constante pour le reste. Si c’est dû à une motivation, les 256 boulettes diminuent la motivation. En réalité, on observe que ceux qui ont une grosse boulette, il ne court ni plus vite, ni moins vite. Par contre, les 25 grosses sont totalement démotivées = dépression. Les premières sont plus que jamais motivé = euphorie. Chez l’homme, on trouve le même phénomène. Il ne faut jamais considérer un renforcement en soi, il faut tenir compte de l’expérience antérieure de mon élève. La recherche de CRESPI avait pour but de montrer que l’effet de l’amplitude du renforcement sur l’apprentissage. Les résultats montrent qu’il y a un effet sur la motivation.
Est-ce que la motivation agit sur l’apprentissage ?

Il manipule la motivation par la privation. Si je suis privé d’un besoin, il se crée un état qui accroît la vigueur des comportements. BROADAURST (1957) : pour sortir du labyrinthe, le rat doit faire un apprentissage qui consiste à choisir toujours l’allée la plus éclairée. Le labyrinthe est sous l’eau. On prive le rat d’air, ce qui va le motiver pour sortir plus vite.

Problèmes :

      • Labyrinthe facile : amélioration des performances par motivation.

      • Labyrinthe modéré : donne des meilleurs résultats.

      • Labyrinthe difficile : pas bons résultats.


La récompense agit sur la motivation qui peut permettre apprentissage mais attention puisque pour des problèmes difficiles, l’apprentissage n’est possible que si la motivation est d’intensité moyenne.

RACHLIN et GREEN (1972) : est ce que l’effet de la récompense est la même pour tous les détails. Il apprend à un pigeon à appuyer sur un levier pour avoir les graines. Une fois qu’il appuie sur la pédale, il se retrouve en face de 2 leviers : un de droite (4s de graine après avoir attendu) et une de gauche (2s de graines immédiat).

95% des pigeons prennent celui de gauche. Chez les humains, 2 options : 6 dollars dans 6 jours, 16 dollars dans 12 jours. La majorité revient au bout de 6 jours.
Renforcements négatifs

SKINNER : 2 leviers : un qui donne de la nourriture, un qui donne un coup de jus. On observe une diminution d’appui sur le levier.
1.4. Régulation du renforcement

Quand doit on donner un renforcement ? Qu’est ce qui est le plus efficace : un rendement systématique ou occasionnelle ?

Loi de l’effet : plus le renforcement va être fréquent, plus l’apprentissage sera fort.

Les résultats ne vont pas dans le même sens de la loi de l’effet.

LEWIS et DUNCAN (1956) : il recherche avec des étudiants qui jouent avec des machines à sous. 1ère phase : concernent les 8 premiers, on les renforce avec une fréquence de 0 à 100% (0 = perd tout le temps, 100 = gagne tous les essais). 2ème phase : aucun renforcement donné. Ceux entre 0 à 20% sont ceux qui jouent le plus longtemps. Ceux entre 80 à 100% s’arrêtent rapidement.

4 situations possibles :

  • RATIO FIXE = renforcement qui survivent après avoir effectué un certain nombre de comportement.

  • RATION VARIABLE = renforcement qui survient après un nombre de comportement qui peut être variable.

  • INTERVALLE FIXE = renforcement à intervalle fixe.

  • INTERVALLE VARIABLE = survient après un certain délai variable.


Le facteur majeur est la variabilité du renforcement. Lorsqu’il est fixe, on s’aperçoit que l’animal réagit au moment où il est renforcé. A l’inverse, si c’est variable l’animal appui n’importe quand.
1.5. Exemples d’application du conditionnement

Exemples de comportement de base

HALL, LUND, JACKSON (1968). Un enseignant doit identifier les élèves difficiles dont il fera l’objet d’étude. Cet élève est en échec scolaire, souvent réprimandé (chez le directeur plusieurs fois). Lorsqu’ils l’observent, ils s’aperçoivent qu’il participe 25% du temps à la classe et le reste du temps, il fait autre chose. Au moment où il se fait réprimandé, c’est qu’il ne travaille pas. Hypothèse : le comportement de la maîtresse renforce celui de la maîtresse. Il recherche l’attention de la maîtresse. Or elle ne s’intéresse à lui que lorsqu’il ne fait rien. Elle doit donc ignorer l’élève quand il se comporte mal. Elle doit le féliciter quand ça va bien. Cela modifie le comportement de l’élève.

Recherche de l’apprentissage du tennis par ALLISON et AYLLON (1980) : apprentissage du service = débutant : enseignement standard (basé sur la démonstration) = mesure du % de service réussi (ressemblant à celui du professeur) ; enseignement basé sur le conditionnement, l’élève fait individuellement des services et s’il réussit, renforcement positif (= félicitation). Quand l’élève fait une erreur, on siffle et il s’arrête d’un coup puis l’enseignant indique l’erreur. Augmentation des progrès (immédiatement et durable). Difficile à mettre en place (individuellement) mais meilleure performance et motivation.

1.6. Conclusion du Behaviorisme

A partir des années 60, déclin du béhaviorisme en France. Un schéma stimulus-réponse ne permet pas d’expliquer l’apprentissage de comportement complexe (ex : langage). Le point de vue du béhavioriste empêche l’analyse de certaines activités humaines.
PEDAGOGIE DU MODELE (SARTHOU)

Modèle de performance de haut niveau qui est choisi et qui devra être reproduit par l’apprenant. Mode d’apprentissage par imitation et par reproduction du geste technique. Cette reproduction passe des démonstrations fondamentales pour que l’apprenant s’imprègne du modèle. Démonstration faite par un enseignant, une image ou une vidéo ou un élève performant. Il n’est pas envisageable sans reproduction. Fait référence à l’apprentissage par observation, par imitation.
THORNDIKE et SKINNER (1898) : ils croient à l’apprentissage par observation. Les 1ers béhavioristes ont essayé de travailler l’apprentissage par observation. THORNDIKE a placé 2 cages côte à côte. Dans la 1ère, un chat qui a appris. Dans la 2ème, le chat pouvait observer le 1er = bien qu’il puisse observer, il progresse par erreur DONC pas apprentissage par observation.
DOLLARD et MILLER (1941) : ils ont introduit l’invitation dans le béhaviorisme = que du conditionnement opérant. On obtient un comportement de copie : lorsqu’une personne guide le comportement d’une autre afin de lui faire apprendre quelque chose, avec renforcement. Il y a apprentissage que s’il y a reproduction et commentaire de l’enseignant sur la reproduction. Il n’y a pas apprentissage sans renforcement. On ne peut bénéficier d’un renforcement qui est donné à un autre individu = comportement approprié.
Ex : 2 enfants = 1 grand et 1 petit. Le grand comprend que quand il court derrière son père, il a un bonbon. Le petit court derrière son frère et a aussi un bonbon = comportement approprié.

Quelles sont les sollicitations mentales dans une tâche ?

Sollicitation exclusivement effectrices (dans SR) = le processus métacognitif sollicité est celui consistant à se situer par rapport au modèle.
CONCLUSION

Le béhaviorisme se retrouve dans la pédagogie du modèle. Il n’est pas la pédagogie du modèle. Il est un des composants de la pédagogie du modèle.
2. La théorie de la forme

Présentation du modèle

Courant allemand qui est simultané au béhaviorisme (1900-1910). Au départ, grâce à un chercheur, WERTHEIMER, à l’origine, travaille sur la perception. Il pensait que si on fait varier le délai de présentation entre 2 stimulus différents, on doit obtenir une perception difficile en fonction de ce délai = on perçoit du mouvement à partir d’images statiques. Répartition : le tout est difficile de la somme des parties. Ce que je perçois au final est difficile des images statistiques.

Conséquences : critique du béhaviorisme, celui-ci s’intéresse à somme des parties = stimulus = pas de perception de l’individu. Distinction environnement géographique (correspondance aux stimulus) et environnement comportemental (réalité psychologique, subjective). Si je veux comprendre un individu, l’environnement comportemental doit être pris comme un vrai stimulus.

A partir de grands principes de la théorie de la forme, application sur l’apprentissage car critique du béhaviorisme.

KOHLER (1925) : apprentissage chez le singe = difficile avec le béhaviorisme dans la nature des problèmes utilisés. L’animal veut un objet qu’il peut voir mais qu’il ne peut pas atteindre = il doit se détourner de son objectif pour employer un chemin détourné et l’atteindre. Ces problèmes de détour sont réussis que par le singe. 2ème type de problème : problème d’atteinte d’objectif hors de portée = banane à 2,50m de hauteur et besoin d’utiliser une caisse (outil) pour l’atteindre. Le résultat est réussi que par des singes.

Les gestaltistes pensent que quand l’individu confronter à un problème (chose inaccessible). Il se crée un déséquilibre cognitif tant que le problème n’est pas résolu. Ce déséquilibre est désagréable = motivation pour rétablir l’équilibre par 2 phases :

      • Phase de pré solution relativement longue = apprentissage par essai et erreur (physiquement ou mentalement pour l’homme). On essaie de se représenter l’élément du problème pour trouver une solution. Si on a à sa disposition toutes les données du problème, la pré solution peut se faire mentalement sinon on procède par essai et erreur.

      • Phase d’apprentissage par insight = 4 caractéristiques

        • La transition est soudaine.

        • La performance obtenue est correcte et reproduite.

        • La solution à un problème par insight se conserve pendant un temps relativement long (conservation).

        • Le principe obtenu par insight peut être appliqué à d’autres problèmes (généralisation).


Quand on est en apprentissage par insight, compréhension importante permettant une conservation et généralisation.


  1   2   3

similaire:

Examen répété du ou des même(s) sujet(s) à des temps successifs iconApprobation des procès verbaux des 10, 22 et 23 avril 2013
«demanderesses» sur ce sujet là, avant que nous allions plus loin, sur quelque chose qui n’existe pas encore, nous en demandons l’examen...

Examen répété du ou des même(s) sujet(s) à des temps successifs iconExamen des rapports
«forcées» sont des attaques menées par l’opposition à des fins politiques. Le Gouvernement angolais tente en outre de reloger, même...

Examen répété du ou des même(s) sujet(s) à des temps successifs iconQuestionnaire examen
«consiste à rassembler et à analyser toutes les informations internes et externes disponibles en fonction du sujet étudié»

Examen répété du ou des même(s) sujet(s) à des temps successifs iconAtelier 2010,1; klassevirnich à l’ EsBA, Toulouse, 15 19. mars 2010
«Un métalogue est un discours sur un sujet problématique, dans lequel non seulement les participants discutent le problème, mais...

Examen répété du ou des même(s) sujet(s) à des temps successifs icon2. a qui le projet de l'association habitat jeune s’adresse-t-il...
«en difficulté» et en même temps mettre en avant l'intérêt de l'action sociale collective

Examen répété du ou des même(s) sujet(s) à des temps successifs iconBibliographie : Les codes sont autorisés à l’examen, surtout en td....

Examen répété du ou des même(s) sujet(s) à des temps successifs iconAdresse : N° : rue
«décision ajourné même sujet» avec obligation ou conseil de déposer une nouvelle demande d’agrément

Examen répété du ou des même(s) sujet(s) à des temps successifs iconI. Lexique
«sujet» implique un nécessaire décentrement : la grammaire distingue le génitif objectif et le génitif subjectif (la crainte des...

Examen répété du ou des même(s) sujet(s) à des temps successifs iconChapitre 1 – Le système politique démocratique
«gouvernement du peuple par le peuple et pour le peuple». C’est à dire que dans la démocratie, les gouvernés sont censés être en...

Examen répété du ou des même(s) sujet(s) à des temps successifs iconMontage et financement
«Coordination Aide et Soins» (Définition du plan d’actions sur le territoire). IL comprend des temps méthodologiques et pratiques...








Tous droits réservés. Copyright © 2016
contacts
l.21-bal.com