Unité pédagogique

Deep Learning and Applications

Derniere édition le: 12/01/2024

Modifier

Responsable:

Description générale :

This course is taught and managed by Prof. Amaury Habrard from Université Jean Monnet. The classrooms for this course are located at Campus Manufacture of the faculty of science of UJM. The course is taught in English and mutualised with Master program MLDM.

This course extends the Deep Learning I course by introducing more advanced concept in deep learning. It covers models for processing structured and complex data. Different setting and architectures are reviewed to cover the main settings of the state of the art. Applications in Vision, NLP and physics will be also presented.

Note: Pour les étudiants en double diplôme ICM et DSC, cette UE est évaluée par une équivalence avec un cours de majeure ou de défi, selon les options choisies par l'étudiant : majeure science des données, UP Apprentissage statistique et machine learning ou bien défi IA, UP AI Basics III.

Mots-clés:

Réseaux adversariaux génératifs Réseaux résiduels et récurent Attention Transformeurs Modèles et architectures avancés Vision Applications TAL

Nombre d’heures à l’emploi du temps:

30

Domaine(s) ou champs disciplinaires:

Informatique, Systèmes d'information

Langue d’enseignement:

Anglais

Objectifs d’apprentissage:

A la fin de l’unité pédagogique, l’élève sera capable de : Niveau de taxonomie Priorité

Modalités d’évaluation des apprentissages:

Part de l'évaluation individuelle Part de l'évaluation collective
Examen sur table : % Livrable(s) de projet : 50 %
Examen oral individuel : % Exposé collectif : %
Exposé individuel : 50 % Exercice pratique collectif : %
Exercice pratique individuel : % Rapport collectif : %
Rapport individuel : %
Autre(s) : %

Programme et contenus:

Type d’activité pédagogique : Contenu, séquencement et organisation
Topics The course has 10 hours lectures, 10 hours tutorials, and 10 hours labwork addressing in sequence the following topics:
  • Recap on basics (MLP, CNN, encoders, basic architectures)
  • Generative Adversarial Networks
  • Variational auto-encoders
  • Recurrent and residual models
  • Attention and Transformers
  • Diffusion models
  • Graph Neural Networks
  • Advanced settings and models
  • Applications in Vision, NLP, physics.