Ressource pédagogique : 2013 - Vision et regard - Du regard à l'interaction : l'apport de la robotique développementale

Phillippe Gaussier est professeur à l'université de cergy-Pontoise où il dirige un groupe de neurocybernétique au sein de l?UMR CNRS 8051. Ses recherches utilisent les robots comme modèles et outils pour étudier la cohérence et la dynamique de différents modèles cognitifs (approche écologique et dév...
cours / présentation - Date de création : 27-03-2013
Partagez !

Présentation de: 2013 - Vision et regard - Du regard à l'interaction : l'apport de la robotique développementale

Informations pratiques sur cette ressource

Français
Type pédagogique : cours / présentation
Niveau : enseignement supérieur, enseignement supérieur, enseignement supérieur
Durée d'exécution : 1 heure 18 minutes 51 secondes
Contenu : image en mouvement
Document : video/mp4
Taille : 337.810 Mo
Droits : libre de droits, gratuit
Droits réservés à l'éditeur et aux auteurs.

Description de la ressource pédagogique

Description (résumé)

Phillippe Gaussier est professeur à l'université de cergy-Pontoise où il dirige un groupe de neurocybernétique au sein de l?UMR CNRS 8051. Ses recherches utilisent les robots comme modèles et outils pour étudier la cohérence et la dynamique de différents modèles cognitifs (approche écologique et développementale de la cognition). Elles concernent d?une part la modélisation des mécanismes cognitifs impliqués dans la perception visuelle, la navigation, la sélection de l?action et d?autre part l?étude de la dynamique des interactions entre individus. Philippe Gaussier a été membre de l?Institut Universitaire de France de 2005 à 2010. Explorer et reconnaître une scène visuelle est une question complexe que la modélisation sur ordinateur et la robotique développementale éclairent aujourd?hui d?une lumière nouvelle. Des expériences robotiques font ressortir l?intérêt d?une exploration active de la scène visuelle et de sa caractérisation en tant que séquence ou chemin entre différentes vues locales. Nous montrerons, à partir de tâches de navigation visuelle, de reconnaissance d?expressions faciales, et de préhension d?objets, comment les informations sur le « quoi » et le « où » peuvent être intégrées pour développer des systèmes robotiques robustes, mais aussi pour questionner notre compréhension des mécanismes cognitifs. Dans le cadre d?une approchedéveloppementale, nous proposons que les capacités d?imitation émergent de l?ambigüité de la perception.L?apprentissage de tâches de plus en plus complexes peut être réalisé par une architecture couplant de manière très simple les informations sensorielles aux commandes motrices, mais il faut pour cela tenir compte des interactions interindividuelles, qui peuvent grandement simplifier les problèmes.

"Domaine(s)" et indice(s) Dewey

  • Ophtalmologie (617.7)
  • Robots (629.892)

Thème(s)

Intervenants, édition et diffusion

Intervenants

Fournisseur(s) de contenus : Icare Multimédia - Faculté de Médecine Lille 2

Diffusion

Partagez !

EN SAVOIR PLUS

  • Identifiant de la fiche
    12317
  • Identifiant
    oai:canal-u.fr:12317
  • Schéma de la métadonnée
  • Entrepôt d'origine
    Canal-u.fr