Retour aux cours
Page suivante
QCM Interactif
Testez vos connaissances !
1
Quel est le principal objectif de la Batch Normalization dans un réseau de neurones ?
A
Réduire la taille du batch pour accélérer l'entraînement
B
Normaliser les preactivations pour obtenir une distribution proche d'une gaussienne à chaque couche
C
Remplacer la fonction d'activation par une fonction normalisée
D
Augmenter la variance des poids pour éviter le surapprentissage
2
Pourquoi les paramètres gamma (bngain) et beta (bnbias) sont-ils ajoutés dans la Batch Normalization ?
A
Pour augmenter la taille du batch
B
Pour permettre au modèle de récupérer la capacité d'expression malgré la normalisation centrée réduite
C
Pour remplacer les poids de la couche précédente
D
Pour calculer la moyenne et la variance des activations
3
Quel problème principal la Batch Normalization rencontre-t-elle lors de la phase d'inférence (test) ?
A
L'absence d'exemples dans le batch empêche de calculer la moyenne et la variance du batch
B
La normalisation ne fonctionne que sur des batchs de taille 1
C
La BatchNorm nécessite toujours un gradient pour fonctionner correctement
D
La moyenne et la variance doivent être recalculées à chaque itération de test
4
Quelle méthode est couramment utilisée pour résoudre le problème de BatchNorm en inférence ?
A
Réinitialiser les poids du réseau avant la phase d'inférence
B
Utiliser la moyenne et la variance calculées sur l’ensemble du dataset via une moyenne mobile exponentielle
C
Réduire la taille du batch à 1 en phase d'entraînement
D
Ne pas utiliser de normalisation en phase d'inférence
5
Quelle différence principale existe entre la Batch Normalization et la Layer Normalization ?
A
La BatchNorm normalise sur les canaux, la LayerNorm sur les batchs
B
La BatchNorm normalise sur la dimension du batch, la LayerNorm normalise sur toutes les activations d'une couche pour chaque exemple individuellement
C
La BatchNorm est utilisée uniquement pour les réseaux convolutionnels, la LayerNorm uniquement pour les réseaux récurrents
D
La BatchNorm ne nécessite pas de paramètres gamma et beta, la LayerNorm en a obligatoirement
Score: 0/5
Score: 0/5
Score: 0/5
Score: 0/5