Volver al curso
Página siguiente
Quiz Interactivo
¡Pon a prueba tus conocimientos!
1
¿Cuál es el efecto principal de una inicialización de pesos demasiado grande en una red con función de activación tanh?
A
Los neuronas tienen activaciones cercanas a cero, facilitando la propagación del gradiente.
B
Los neuronas tienen activaciones cercanas a +1 o -1, lo que provoca un gradiente muy débil.
C
La pérdida (loss) es más baja en la inicialización, lo que acelera el entrenamiento.
D
Los sesgos (bias) se vuelven inútiles y pueden inicializarse con valores aleatorios.
2
¿Qué método simple permite reducir una pérdida (loss) anormalmente alta en la inicialización de una red?
A
Inicializar todos los pesos a cero.
B
Multiplicar los pesos por un valor pequeño (por ejemplo, 0.01) e inicializar los sesgos (bias) a cero.
C
Usar una función de activación sigmoide en lugar de tanh.
D
Aumentar el tamaño del batch para estabilizar la pérdida (loss).
3
¿Por qué no se deben inicializar los pesos de una red neuronal a cero?
A
Porque esto conduce a una distribución uniforme de las activaciones.
B
Porque esto impide la diferenciación entre neuronas, bloqueando el aprendizaje.
C
Porque esto aumenta la pérdida (loss) inicial.
D
Porque esto acelera demasiado el entrenamiento y provoca sobreajuste.
4
¿Cuál es la derivada de la función tanh y por qué es importante para el problema de las neuronas muertas?
A
tanh'(t) = 1 - tanh(t), lo que hace que el gradiente siempre sea elevado.
B
tanh'(t) = 1 - tanh(t)^2, y si t está cerca de ±1, el gradiente es muy débil.
C
tanh'(t) = t, lo que impide la propagación del gradiente.
D
tanh'(t) = exp(-t), lo que causa una explosión del gradiente.
5
¿Qué técnica moderna se recomienda para asegurar una buena inicialización de los pesos en redes profundas?
A
Inicialización aleatoria uniforme entre -1 y 1, sin sesgos (bias).
B
Inicialización Kaiming (He) adaptada a la función de activación utilizada.
C
Inicialización de los pesos a cero y los sesgos (bias) a 0.5.
D
Uso exclusivo de normalización por batch (batch norm) sin preocuparse por la inicialización.
Score: 0/5
Puntuación: 0/5