Ce module donne un aperçu des méthodes d'optimisation classiques et modernes, pour des applications en apprentissage automatique et en science des données dans un contexte supervisé et non supervisé. En particulier, l'évolutivité des algorithmes les plus populaires de Machine Learning, leur application à différents ensembles de données, sera discutée en théorie et en pratique.
A la fin de l’unité pédagogique, l’élève sera capable de : | Niveau de taxonomie | Priorité |
---|
Part de l'évaluation individuelle | Part de l'évaluation collective | ||||
---|---|---|---|---|---|
Examen sur table : | % | Livrable(s) de projet : | % | ||
Examen oral individuel : | % | Exposé collectif : | % | ||
Exposé individuel : | % | Exercice pratique collectif : | % | ||
Exercice pratique individuel : | % | Rapport collectif : | % | ||
Rapport individuel : | % | ||||
Autre(s) : % |
Type d’activité pédagogique : | Contenu, séquencement et organisation |
---|---|
Optimisation classique | Optimisation numérique locale : gradient(s), Newton, méthodes duales (Uzawa). Application aux SVM et SVR. |
Réseaux de neurones | Réseaux feedforward, Réseaux de neurones récurrents, Réseaux convolutifs, Rétropropagation de gradient. |
Optimisation pour Machine Learning | Back-propagation. Méthodes de gradients déterministes et stochastiques, Robbins-Monro, Kiefer-Wolfowitz, applications aux réseaux de neurones. |
Classification-clustering | Clustering (k-means, k-medioids, hiérarchique, DBSCAN), classification supervisée (k-NN, variantes), règles d'association (Apriori, ECLAT). |