QCM Interactif

Testez vos connaissances !

1
Quel est le principal avantage du transfer learning en deep learning ?
2
Quelle est la différence principale entre transfer learning et fine-tuning ?
3
En fine-tuning, comment choisir le nombre de couches à ré-entraîner ?
4
Quel dataset est souvent utilisé pour pré-entraîner des modèles de classification d’images en transfer learning ?
5
Quel est l’objectif principal de la distillation des connaissances ?
6
Pourquoi la distillation des connaissances améliore-t-elle souvent la performance du modèle student ?
7
Dans la distillation des connaissances appliquée à la détection d’anomalies non supervisée, quel est le rôle principal du modèle student ?
8
Quelle est la particularité de l’architecture BERT par rapport à GPT ?
9
Quelle tâche d’entraînement BERT utilise-t-il pour apprendre les représentations linguistiques ?
10
Dans la token-level classification avec BERT (exemple NER), pourquoi utilise-t-on un token [CLS] en début de séquence ?
Score: 0/10
Score: 0/10
Score: 0/10
Score: 0/10