Retour aux cours
Page suivante
QCM Interactif
Testez vos connaissances !
1
Quelle est la principale raison d'utiliser des mini-batchs lors de la descente de gradient stochastique ?
A
Pour garantir une diminution de la perte à chaque itération
B
Pour réduire la consommation mémoire et accélérer l'entraînement sur de grands ensembles de données
C
Pour augmenter la taille du dataset
D
Pour éviter de devoir calculer le gradient
2
Dans un réseau de neurones, quel est le rôle principal d'un neurone de type régression logistique ?
A
Calculer une somme pondérée des entrées sans activation
B
Appliquer une fonction d'activation non linéaire sigmoïde pour produire une sortie entre 0 et 1
C
Réaliser une convolution sur les données d'entrée
D
Mémoriser les états précédents dans les réseaux récurrents
3
Quelle fonction de perte est couramment utilisée pour maximiser la marge entre les classes dans un problème de classification binaire ?
A
Erreur quadratique moyenne (MSE)
B
Entropie croisée
C
Perte hinge (hinge loss)
D
Perte max-margin
4
En PyTorch, quelle classe est utilisée pour créer un ensemble de données qui regroupe les entrées et les labels ?
A
DataLoader
B
TensorDataset
C
DatasetLoader
D
BatchSampler
5
Lors de la construction d'un réseau de neurones en PyTorch, quelle fonction permet d'appliquer une couche entièrement connectée ?
A
nn.Conv2d
B
nn.Linear
C
nn.ReLU
D
nn.Dropout
6
Quel est l'objectif principal de la régularisation L2 dans l'entraînement des réseaux de neurones ?
A
Encourager les poids à devenir grands pour améliorer la précision
B
Ajouter une pénalité proportionnelle au carré des poids pour réduire le surapprentissage
C
Supprimer certains neurones du réseau aléatoirement
D
Normaliser les entrées de chaque couche
7
Quel rôle joue la technique du dropout lors de l'entraînement d'un réseau de neurones ?
A
Normaliser les activations pour accélérer l'entraînement
B
Désactiver aléatoirement des neurones pour améliorer la généralisation
C
Réduire la taille du dataset
D
Augmenter la profondeur du réseau
8
Quelle opération effectue la Batch Normalization sur un mini-batch d'activations ?
A
Elle applique une fonction d'activation non linéaire
B
Elle normalise les activations pour avoir une moyenne nulle et une variance unitaire, puis ajuste avec des paramètres apprenables
C
Elle supprime certains neurones aléatoirement
D
Elle augmente la variance des activations pour plus de robustesse
9
Parmi les avantages suivants, lequel n'est pas un effet direct de la Batch Normalization ?
A
Accélération de la convergence de l'entraînement
B
Réduction de la sensibilité à l'initialisation des poids
C
Suppression complète du surapprentissage
D
Réduction du "Internal Covariate Shift"
10
Quelle fonction de perte est utilisée en PyTorch pour un problème de classification multi-classes comme MNIST ?
A
MSELoss
B
CrossEntropyLoss
C
Hinge Loss
D
Max-margin loss
Score: 0/10
Score: 0/10
Score: 0/10
Score: 0/10