Soutenance de la thèse de Jean-Bernard Damasse

11 juin 2018

lundi 11 juin à 14h

Faculté de médecine de la Timone Salle de Thèse N°2 1er étage - aile bleue


Titre : Mouvements oculaires de poursuite lisse et apprentissage : rôle des contingences probabilistes et de renforcement

Smooth pursuit eye movements and learning : Role of motion probability and reinforcement contingencies

Jury :

  • Dr Anna Montagnini (Directrice) INT-CNRS, Marseille, France
  • Dr Laurent Perrinet (Co-Directeur) INT-CNRS, Marseille, France,
  • Dr Richard Krauzlis (Rapporteur) NIH, Bethesda, Maryland USA
  • Dr Alexander Schütz (Rapporteur) PUM, Marburg, Germany
  • Dr Laurent Madelain (Examinateur) SCALAB, Lille, France
  • Dr Françoise Vitu (Examinateur) LPC, Marseille, France

Résumé L’un des plus grands défis pour les organismes vivants est leur capacité d’adapter constamment leurs comportements moteurs. En vision, suivre précisément un objet en mouvement est une habileté essentielle du système visio-oculomoteur humain. Le mouvement oculaire de poursuite lisse permet l’alignement précis entre le mouvement lent d’une cible et la fovéa pour permettre la stabilisation de l’image rétinienne.

Dans la première étude de cette thèse, nous avons étudié le rôle du conditionnement opérant sur la poursuite lisse d’anticipation (PLA). Quand le système a accès à certaines informations sur le mouvement a venir d’une cible, la PLA peut être générée avant même l’apparition d’une cible (Kowler & Steinman, 1979). Elle est vue comme une solution optimale pour réduire le délai visiomoteur pour la foveation d’une cible en mouvement. Nous avons démontré que la PLA est générée de manière cohérente avec le mouvement attendu et que sa vitesse moyenne s’échelonne de manière monotone avec la probabilité de direction. De plus, dans une expérience de conditionnement opérant de la poursuite, nous avons montré que si une récompense monétaire était fonction d’un critère sur la vitesse d’anticipation, cette dernière était modulée, de manière légère mais significative, par les contingences de renforcement. Ces résultats renforcent le fait que la PLA peut être considérée comme un comportement opérant. Des études contrôles ont montré que l’attente d’une récompense non contingente ne peut pas biaiser efficacement la PLA.

Dans une seconde étude, nous avons créé un paradigme de poursuite avec un choix entre deux cibles avec trajectoire orthogonale. Dans la condition contrôle, la cible était indiquée par sa couleur. Dans l’expérience principale, chaque direction était associée à une règle différente de renforcement inspirée par l’Iowa Gambling Task (IGT) (Bechara et al, 2004). Dans une seconde version de cette tâche, l’information sur le renforcement était liée cette fois, à la couleur. Comme la poursuite lisse est vue comme un moyen de lecture continue du traitement d’informations cognitives, nous avons analysé la modulation de la poursuite à travers toutes ses étapes en fonction de la manipulation du renforcement. De plus, nous avons testé ce paradigme novateur sur des patients Parkinson (PP, connus pour leurs déficits dans l’IGT), ainsi que sur des personnes âgées contrôles et des adultes jeunes. Chez les participants jeunes, la latence du choix était fortement raccourcie dans la tache IGT en comparaison à la tache contrôle. La poursuite était déviée vers la cible choisie, et ce, dès la phase d’anticipation, et maintenue ainsi pendant la phase d’initiation. Notre conclusion est que plutôt qu’un comportement de moyennage du vecteur entre les deux cibles (Ferrera and Lisberger, 1997), les participants réalisent un choix précoce quand celui-ci est associé à une règle de renforcement. Chez les jeunes participants, nous avons observé une relation intéressante entre la stratégie IGT globale et le délai entre apparition de la cible et information sur la récompense, différente selon les expériences. Chez les patients et les contrôles âgés, malgré une grande variabilité inter-sujets, l’analyse du choix d’une cible a révélé une performance globale altérée.

La dernière contribution de cette thèse fut de modéliser le biais directionnel sur la PLA que nous avons observé dans la première étude. Nous avons testé deux modèles simples (moyenne glissante et intégrateur à fuite) afin d’étudier la relation entre la vitesse de la PLA et les biais de direction locaux. Ces modèles furent une première étape vers un modèle de Bayesian Change-point detection (Adams & McKay, 2007), qui imite un agent idéal inférant la probabilité d’occurrence d’un évènement ainsi que la volatilité de l’environnement (i.e. la durée depuis un changement de biais). Ce modèle suggère que nos résultats peuvent être utilisés pour de futurs modèles d’apprentissages par renforcement.

CNRS logo université Aix Marseille logo | plan du site | mentions légales | contact | admin | intranet | intcloud |