Volver al curso
Página siguiente
Quiz Interactivo
¡Pon a prueba tus conocimientos!
1
¿Cuál es el principal objetivo de la Normalización por Lotes (Batch Normalization) en una red neuronal?
A
Reducir el tamaño del lote para acelerar el entrenamiento
B
Normalizar las preactivaciones para obtener una distribución cercana a una gaussiana en cada capa
C
Reemplazar la función de activación por una función normalizada
D
Aumentar la varianza de los pesos para evitar el sobreajuste
2
¿Por qué se añaden los parámetros gamma (bngain) y beta (bnbias) en la Normalización por Lotes?
A
Para aumentar el tamaño del lote
B
Para permitir que el modelo recupere su capacidad de expresión a pesar de la normalización centrada reducida
C
Para reemplazar los pesos de la capa anterior
D
Para calcular la media y la varianza de las activaciones
3
¿Cuál es el principal problema que enfrenta la Normalización por Lotes durante la fase de inferencia (prueba)?
A
La ausencia de ejemplos en el lote impide calcular la media y la varianza del lote
B
La normalización solo funciona con lotes de tamaño 1
C
La BatchNorm siempre requiere un gradiente para funcionar correctamente
D
La media y la varianza deben recalcularse en cada iteración de prueba
4
¿Qué método se utiliza comúnmente para resolver el problema de la BatchNorm en la inferencia?
A
Reiniciar los pesos de la red antes de la fase de inferencia
B
Utilizar la media y la varianza calculadas sobre todo el conjunto de datos mediante una media móvil exponencial
C
Reducir el tamaño del lote a 1 en la fase de entrenamiento
D
No usar normalización en la fase de inferencia
5
¿Cuál es la principal diferencia entre la Normalización por Lotes (Batch Normalization) y la Normalización por Capa (Layer Normalization)?
A
La BatchNorm normaliza sobre los canales, la LayerNorm sobre los lotes
B
La BatchNorm normaliza sobre la dimensión del lote, la LayerNorm normaliza sobre todas las activaciones de una capa para cada ejemplo individualmente
C
La BatchNorm se usa únicamente en redes convolucionales, la LayerNorm solo en redes recurrentes
D
La BatchNorm no requiere parámetros gamma y beta, la LayerNorm los requiere obligatoriamente
Score: 0/5
Puntuación: 0/5