Aller au contenu

🌟 Cours spécifiques 🌟

Ce cours présente des concepts très intéressant à comprendre mais non essentiels dans une pratique courante du deep learning. Si vous êtes intéressé par comprendre le fonctionnement d'un réseau de neurones de manière plus approfondie et de découvrir la raison de l'utilisation de techniques comme la BatchNorm, les connexions résiduelles, les optimizers, le dropout, la data augmentation etc ..., ce cours est fait pour vous !

Notebook 1️⃣ : Activation et initialisation

Ce notebook présente les considérentions importantes à prendre en compte lors de l'initialisation d'un réseau de neurones.

Notebook 2️⃣ : BatchNorm

Ce notebook introduit un détail la batch normalization en présentant ses intêrets et son implémentation.

Notebook 3️⃣ : Data augmentation

Ce notebook présente la data augmentation et son utilité pour l'entraînement des réseaux de neurones.

Notebook 4️⃣ : Broadcasting

Ce notebook présente les broadcasting rules de pytorch qui sont des règles sur la manipulation des tenseurs torch. Ces règles sont très importantes à maîtriser.

Notebook 5️⃣ : Optimizer

Ce notebook décrit les différents optimizer utilisables pour entraîner un réseau de neurones.

Notebook 6️⃣ : Régularisation

Ce notebook présente en détails deux méthodes de régularisation : le régularisation L2 et le dropout.

Notebook 7️⃣ : Connexions Résiduelles

Ce notebook introduit les connexions résiduelles et leurs utilités pour l'entraînement de réseaux de neurones profonds.

Notebook 8️⃣ : CrossValidation

Ce notebook introduit la méthode de cross validation pour évaluer les modèles et détecter l'overfitting.

Notebook 9️⃣ : Metriques Evaluation

Ce notebook introduit différents métriques que l'on peut utiliser pour évaluer son modèle.

Notebook 1️⃣0️⃣ : Tokenization

Ce notebook introduit la tokenization en expliquant le fonctionnement, les limitations et en proposant une implémentation du byte-pair encoding.

Notebook 1️⃣1️⃣ : Quantization

Ce notebook introduit la quantization et les méthodes de fine-tuning de modèles LLM. La première partie décrit les différentes forme de quantization et la théorie derrière. La dernière partie introduit les méthodes LoRA et QLoRA pour le fine-tuning.