Traitement automatique des langues et réseaux de neurones

Table des matières

Syllabus

Le cours se déroule en 6 séances. À chaque fois, une nouvelle notion est abordée avec un TP à réaliser.


Session 1 : Introduction et vecteurs de mots 26/11/2025

Cours

Introduction au TAL – les vecteurs de mots : transparents transparents (2x2)

TP

Implémentation de word2vec par maximum de vraisemblance

Session 2 : Vecteurs de mots (suite) 27/11/2025

Cours

Les vecteurs de mots : transparents transparents (2x2)

TP

Implémentation de word2vec par méthode contrastive

Session 3 : Réseaux convolutifs 10/12/2025

Cours

Les réseaux convolutifs pour le texte : transparents (1ere partie) transparents (2x2)

TP

Analyse d'opinion avec des CNN

Références


Session 4 : Réseaux Récurrents et introduction aux modèles de langue 16/12/2025

Cours

Les réseaux récurrents : transparents (2e partie) et transparents

TP

Analyse d'opinion avec des CNN

Références

  • cours de Christopher Manning cours 6 (RNN à partir de la page 22, mais introduit les modèles de langues avant!) et cours 7 (problème du gradient dans les RNN)

Session 5 18/12/2025

Cours

Modèles n-grammes et réseaux récurrents : transparents (suite)

Références

Session 6 : Traduction automatique 08/01/2026

Cours

Traduction automatique (cours par Nadi Tomeh)

Remarques

  • Un QCM par semaine (à partir de la 2e semaine) pour évaluation
  • Projet/

Références

Auteur: Joseph Le Roux

Created: 2025-11-27 Jeu 15:24