Retour aux cours
Page suivante
QCM Interactif
Testez vos connaissances !
1
Quelle est la principale fonction d’un tokenizer dans le contexte des modèles de langage (LLM) ?
A
Convertir un texte en une séquence d’entiers (tokens)
B
Traduire un texte d’une langue à une autre
C
Générer des réponses à partir d’un contexte donné
D
Evaluer la performance d’un modèle de langage
2
Pourquoi les LLM ont-ils souvent des difficultés à effectuer des opérations simples sur les chaînes de caractères, comme inverser un mot ?
A
Parce que les LLM ne comprennent pas la syntaxe des mots
B
Car les mots sont tokenisés en chunks de caractères et non caractère par caractère
C
Parce que les modèles de langage ne traitent pas les chaînes de caractères
D
Car le vocabulaire des LLM est trop petit pour contenir tous les mots
3
Quel est l’avantage principal de l’algorithme byte-pair encoding (BPE) dans la construction d’un tokenizer ?
A
Il réduit la taille du vocabulaire à moins de 100 tokens
B
Il permet d’augmenter la taille du vocabulaire tout en réduisant la longueur des séquences tokenisées
C
Il traduit automatiquement les textes en anglais
D
Il remplace chaque mot par un seul caractère Unicode
4
Pourquoi le tokenizer de GPT-2 rend le modèle moins performant pour le traitement de code Python ?
A
Parce que Python utilise des caractères spéciaux non reconnus par GPT-2
B
Parce que chaque espace d’indentation est compté comme un token séparé, augmentant rapidement la taille du contexte
C
Car GPT-2 ne comprend pas la syntaxe des langages de programmation
D
Parce que GPT-2 ne peut pas tokeniser des chiffres correctement
5
Quel est l’impact principal d’un tokenizer entraîné majoritairement sur des données en anglais sur les performances d’un LLM dans d’autres langues ?
A
Le modèle utilise plus de tokens pour exprimer une même phrase dans d’autres langues, ce qui limite la taille du contexte effectif
B
Le modèle traduit automatiquement les textes étrangers en anglais avant traitement
C
Le tokenizer supprime tous les caractères non anglais
D
Le modèle fonctionne mieux en japonais qu’en anglais
Score: 0/5
Score: 0/5
Score: 0/5
Score: 0/5