Cours Deep Learning 🚀#
Bienvenue dans ce cours complet de Deep Learning ! Ce cours vous permettra d’apprendre le Deep Learning à partir de zéro, avec une approche pratique et théorique.
🎯 Objectifs du cours#
Comprendre les fondements mathématiques du Deep Learning
Maîtriser les architectures de réseaux de neurones modernes
Implémenter des modèles avec PyTorch
Découvrir les applications pratiques du Deep Learning
📚 Structure du cours#
Le cours est organisé en plusieurs parties :
🏗️ Fondations
Introduction à l’optimisation par descente de gradient, compréhension intuitive de la règle de la chaîne, et premiers pas avec la régression logistique.🧠 Réseau Fully Connected
Exploration du fonctionnement d’un réseau de neurones avec micrograd puis avec PyTorch. Introduction à des techniques avancées d’entraînement pour améliorer les performances.🖼️ Réseaux Convolutifs
Présentation des couches de convolution et de leur utilisation dans les réseaux de neurones. Exemples pratiques : classification sur MNIST, CIFAR-10 et segmentation d’images.🔄 Autoencodeurs
Découverte de l’apprentissage non supervisé via les autoencodeurs : détection d’anomalies et débruitage d’images.🗨️ NLP
Introduction au traitement du langage naturel inspirée de la série “Building makemore” : des modèles simples jusqu’aux architectures plus complexes pour la prédiction de texte.🤗 Hugging Face
Exploration de la plateforme Hugging Face : découverte des modèles, datasets et librairies (transformers, diffusers, gradio) pour des cas d’usage variés.🤖 Transformers
Étude détaillée de l’architecture transformer : implémentation pas à pas, explications mathématiques, applications variées (vision, traduction…), et introduction au vision transformer.🔍 Détection d’objets (YOLO)
Présentation des méthodes de détection d’objets (two-stage, one-stage), focus sur YOLO et utilisation de la librairie ultralytics.🎯 Entraînement Contrastif
Introduction à l’entraînement contrastif : implémentation pour la vérification de visages et applications à l’apprentissage non supervisé.🤝 Transfer Learning et Distillation
Concepts de transfer learning et distillation des connaissances : implémentations pratiques, distillation pour la détection d’anomalies, et finetuning de LLM avec BERT et Hugging Face.🌀 Modèles Génératifs
Présentation des grandes familles de modèles génératifs : GAN, VAE, normalizing flows, modèles de diffusion (hors modèles autoregressifs déjà vus en NLP/Transformers).🌟 Bonus – Cours spécifiques
Concepts avancés et techniques complémentaires : BatchNorm, connexions résiduelles, optimizers, dropout, data augmentation, etc.
🛠️ Prérequis#
Connaissances de base en Python
Notions de mathématiques (algèbre linéaire, calcul différentiel)
Motivation pour apprendre ! 💪
Commencez votre apprentissage en explorant les fondations du Deep Learning !