UE721 - Interplay between deep learning and cognitive modeling


Lieu et planning


  • ENS-Ulm
    75005 Paris
    Salle Paul-Langevin, 29 rue d'Ulm (1er étage)
    1er semestre / hebdomadaire, mercredi 16:00-18:00
    du 20 septembre 2023 au 17 janvier 2024
    Nombre de séances : 13


Description


Dernière modification : 18 septembre 2023 11:14

Type d'UE
Enseignements fondamentaux de master
Disciplines
Psychologie et sciences cognitives
Page web
https://l-bg.github.io/dlcm/ 
Langues
anglais
L’enseignement est uniquement dispensé dans cette langue.
Mots-clés
Cognition Intelligence artificielle Sciences cognitives
Aires culturelles
-
Intervenant·e·s
  • Laurent Bonnasse-Gahot [référent·e]   ingénieur de recherche, EHESS / Centre d'analyse et de mathématique sociales (CAMS)
  • Jean-Pierre Nadal   directeur d'études, EHESS - directeur de recherche, CNRS / Centre d'analyse et de mathématique sociales (CAMS)

En sciences cognitives, la relation avec l'apprentissage automatique (réseaux de neurones artificiels) est très forte depuis les origines, au-delà de l'utilisation comme simple outil, comme modèles cognitifs computationnels autour de thèmes tels que l'apprentissage, le traitement du langage, la catégorisation, etc. Les grands succès récents de l''intelligence artificielle sont au moins une preuve conceptuelle qu'un système distribué basé sur des unités élémentaires peut conduire par apprentissage (en modifiant les connexions entre ces unités) à des comportements de très haut niveau. Mais peut-on parler de modèles du cerveau ?

Le cours vise à introduire les dernières avancées de l'apprentissage automatique (réseaux de neurones artificiels, réseaux profonds) et son utilisation pour comprendre notre cognition, tout en soulignant les limites posées par les techniques actuelles si elles sont considérées comme des modèles du cerveau.

Ce cours s'adresse en premier à des étudiant·e·s, notamment du master de sciences cognitives (le Cogmaster, EHESS-PSL-Université Paris Cité), mais aussi à toute personne intéressée par cette interface, qu'elle soit étudiante de master, doctorante, postdoctorante, (enseignante-)chercheuse, quel que soit son domaine disciplinaire (voir cependant les prérequis).

Argumentaire détaillé sur le site internet du cours.

Dans une première partie, les bases fondamentales, l'histoire et le développement de ces techniques seront présentés. Après une présentation du perceptron, des algorithmes de descente de gradient et de rétropropagation, le cours présentera les principales méthodes et architectures neuronales contemporaines, en particulier les réseaux convolutifs, les réseaux récurrents (tels que les LSTM), et les Transformers, qui sont des réseaux modernes basés sur un concept d'attention.
Dans une seconde partie, des conférenciers invités présenteront l'utilisation faite de ces modèles dans leurs recherches en sciences cognitives. Un accent particulier sera mis sur la comparaison entre les modèles d'activations dans les systèmes neuronaux artificiels et biologiques.
Une session sera consacrée à l'implémentation d'un algorithme d'apprentissage.
La dernière partie sera consacrée aux présentations des étudiants, considérées comme faisant partie du cours.

Programme détaillé sur le site du cours.

Remarque : Ce cours ne remplace pas un cours avancé sur l'apprentissage profond ou plus largement l'apprentissage automatique. Ce cours n'aborde pas les questions d'inférence statistique.


Master


  • Méthodologie – Sciences cognitives – M1/S1-M2/S3
    Suivi et validation – semestriel hebdomadaire = 4 ECTS
    MCC – exposé oral

Renseignements


Contacts additionnels
-
Informations pratiques

Cours en anglais et en présentiel uniquement. Informations pratiques sur le site du cours : https://l-bg.github.io/dlcm/

Attention la salle de cours est la salle Langevin, 29 rue d'Ulm.

Après avoir été accepté au cours, les étudiants externes au Cogmaster doivent s'inscrire auprès du sécrétariat Cogmaster. Voir informations à l'adresse suivante :

https://cogmaster.ens.psl.eu/fr/candidates/etudiantes-externes-13501

Direction de travaux des étudiants

sur rendez-vous uniquement.

Réception des candidats

sur rendez-vous uniquement.

Pré-requis

cours donné en anglais.

Un bagage mathématique minimal et une pratique même élémentaire de la programmation en Python sont nécessaires pour bien profiter du cours.

Some familiarity (knowledge and practice) with elementary mathematics – calculus, linear algebra – is strongly recommended. Prior knowledge in machine learning will help but is not mandatory.
Basic programming knowledge, preferably in Python, is necessary for the hands-on (TP) session.

Dernière modification : 18 septembre 2023 11:14

Type d'UE
Enseignements fondamentaux de master
Disciplines
Psychologie et sciences cognitives
Page web
https://l-bg.github.io/dlcm/ 
Langues
anglais
L’enseignement est uniquement dispensé dans cette langue.
Mots-clés
Cognition Intelligence artificielle Sciences cognitives
Aires culturelles
-
Intervenant·e·s
  • Laurent Bonnasse-Gahot [référent·e]   ingénieur de recherche, EHESS / Centre d'analyse et de mathématique sociales (CAMS)
  • Jean-Pierre Nadal   directeur d'études, EHESS - directeur de recherche, CNRS / Centre d'analyse et de mathématique sociales (CAMS)

En sciences cognitives, la relation avec l'apprentissage automatique (réseaux de neurones artificiels) est très forte depuis les origines, au-delà de l'utilisation comme simple outil, comme modèles cognitifs computationnels autour de thèmes tels que l'apprentissage, le traitement du langage, la catégorisation, etc. Les grands succès récents de l''intelligence artificielle sont au moins une preuve conceptuelle qu'un système distribué basé sur des unités élémentaires peut conduire par apprentissage (en modifiant les connexions entre ces unités) à des comportements de très haut niveau. Mais peut-on parler de modèles du cerveau ?

Le cours vise à introduire les dernières avancées de l'apprentissage automatique (réseaux de neurones artificiels, réseaux profonds) et son utilisation pour comprendre notre cognition, tout en soulignant les limites posées par les techniques actuelles si elles sont considérées comme des modèles du cerveau.

Ce cours s'adresse en premier à des étudiant·e·s, notamment du master de sciences cognitives (le Cogmaster, EHESS-PSL-Université Paris Cité), mais aussi à toute personne intéressée par cette interface, qu'elle soit étudiante de master, doctorante, postdoctorante, (enseignante-)chercheuse, quel que soit son domaine disciplinaire (voir cependant les prérequis).

Argumentaire détaillé sur le site internet du cours.

Dans une première partie, les bases fondamentales, l'histoire et le développement de ces techniques seront présentés. Après une présentation du perceptron, des algorithmes de descente de gradient et de rétropropagation, le cours présentera les principales méthodes et architectures neuronales contemporaines, en particulier les réseaux convolutifs, les réseaux récurrents (tels que les LSTM), et les Transformers, qui sont des réseaux modernes basés sur un concept d'attention.
Dans une seconde partie, des conférenciers invités présenteront l'utilisation faite de ces modèles dans leurs recherches en sciences cognitives. Un accent particulier sera mis sur la comparaison entre les modèles d'activations dans les systèmes neuronaux artificiels et biologiques.
Une session sera consacrée à l'implémentation d'un algorithme d'apprentissage.
La dernière partie sera consacrée aux présentations des étudiants, considérées comme faisant partie du cours.

Programme détaillé sur le site du cours.

Remarque : Ce cours ne remplace pas un cours avancé sur l'apprentissage profond ou plus largement l'apprentissage automatique. Ce cours n'aborde pas les questions d'inférence statistique.

  • Méthodologie – Sciences cognitives – M1/S1-M2/S3
    Suivi et validation – semestriel hebdomadaire = 4 ECTS
    MCC – exposé oral
Contacts additionnels
-
Informations pratiques

Cours en anglais et en présentiel uniquement. Informations pratiques sur le site du cours : https://l-bg.github.io/dlcm/

Attention la salle de cours est la salle Langevin, 29 rue d'Ulm.

Après avoir été accepté au cours, les étudiants externes au Cogmaster doivent s'inscrire auprès du sécrétariat Cogmaster. Voir informations à l'adresse suivante :

https://cogmaster.ens.psl.eu/fr/candidates/etudiantes-externes-13501

Direction de travaux des étudiants

sur rendez-vous uniquement.

Réception des candidats

sur rendez-vous uniquement.

Pré-requis

cours donné en anglais.

Un bagage mathématique minimal et une pratique même élémentaire de la programmation en Python sont nécessaires pour bien profiter du cours.

Some familiarity (knowledge and practice) with elementary mathematics – calculus, linear algebra – is strongly recommended. Prior knowledge in machine learning will help but is not mandatory.
Basic programming knowledge, preferably in Python, is necessary for the hands-on (TP) session.

  • ENS-Ulm
    75005 Paris
    Salle Paul-Langevin, 29 rue d'Ulm (1er étage)
    1er semestre / hebdomadaire, mercredi 16:00-18:00
    du 20 septembre 2023 au 17 janvier 2024
    Nombre de séances : 13