Traitement automatique des langues et réseaux de neurones
Table des matières
Syllabus
Le cours se déroule en 6 séances. À chaque fois, une nouvelle notion est abordée avec un TP à réaliser.
Session 1 : Introduction et vecteurs de mots
Cours
Introduction au TAL – les vecteurs de mots : transparents transparents (2x2)
TP
Implémentation de word2vec par maximum de vraisemblance
Références
- tutoriels pytorch
- documentation pytorch
- Natural Language Processing with PyTorch
cours de Christopher Manning : cours 1 et cours 2
Session 2 : Vecteurs de mots (suite)
Cours
Les vecteurs de mots : transparents transparents (2x2)
TP
Implémentation de word2vec par méthode contrastive
Session 3 : Réseaux convolutifs
Cours
Les réseaux convolutifs pour le texte : transparents (1ere partie) transparents (2x2)
TP
Analyse d'opinion avec des CNN
Références
- cours de Christopher Manning : cours 11 et la vidéo
- https://arxiv.org/abs/1408.5882 [un bon rapport de stage ;)]
- page web qui décrit les données de TP : https://deft.limsi.fr/2018/
Session 4 : Réseaux Récurrents et introduction aux modèles de langue
Cours
Les réseaux récurrents : transparents (2e partie) et transparents
TP
Analyse d'opinion avec des CNN
Session 6 : Traduction automatique
Cours
Traduction automatique (cours par Nadi Tomeh)
Remarques
- Un QCM par semaine (à partir de la 2e semaine) pour évaluation
- Projet/