Volver al curso
Página siguiente
Quiz Interactivo
¡Pon a prueba tus conocimientos!
1
¿Cuál es la principal razón para usar mini-lotes durante el descenso de gradiente estocástico?
A
Para garantizar una disminución de la pérdida en cada iteración
B
Para reducir el consumo de memoria y acelerar el entrenamiento en grandes conjuntos de datos
C
Para aumentar el tamaño del conjunto de datos
D
Para evitar tener que calcular el gradiente
2
En una red neuronal, ¿cuál es el papel principal de una neurona de tipo regresión logística?
A
Calcular una suma ponderada de las entradas sin activación
B
Aplicar una función de activación no lineal sigmoide para producir una salida entre 0 y 1
C
Realizar una convolución sobre los datos de entrada
D
Memorizar los estados anteriores en las redes recurrentes
3
¿Qué función de pérdida se utiliza comúnmente para maximizar el margen entre las clases en un problema de clasificación binaria?
A
Error cuadrático medio (MSE)
B
Entropía cruzada
C
Pérdida hinge (hinge loss)
D
Pérdida max-margin
4
En PyTorch, ¿qué clase se utiliza para crear un conjunto de datos que agrupa las entradas y las etiquetas?
A
DataLoader
B
TensorDataset
C
DatasetLoader
D
BatchSampler
5
Al construir una red neuronal en PyTorch, ¿qué función permite aplicar una capa completamente conectada?
A
nn.Conv2d
B
nn.Linear
C
nn.ReLU
D
nn.Dropout
6
¿Cuál es el objetivo principal de la regularización L2 en el entrenamiento de redes neuronales?
A
Fomentar que los pesos se vuelvan grandes para mejorar la precisión
B
Agregar una penalización proporcional al cuadrado de los pesos para reducir el sobreajuste
C
Eliminar ciertos neuronas de la red aleatoriamente
D
Normalizar las entradas de cada capa
7
¿Qué papel desempeña la técnica de dropout durante el entrenamiento de una red neuronal?
A
Normalizar las activaciones para acelerar el entrenamiento
B
Desactivar aleatoriamente neuronas para mejorar la generalización
C
Reducir el tamaño del conjunto de datos
D
Aumentar la profundidad de la red
8
¿Qué operación realiza la normalización por lotes (Batch Normalization) sobre un mini-lote de activaciones?
A
Aplica una función de activación no lineal
B
Normaliza las activaciones para que tengan media cero y varianza unitaria, luego ajusta con parámetros aprendibles
C
Elimina ciertas neuronas aleatoriamente
D
Aumenta la varianza de las activaciones para mayor robustez
9
Entre las siguientes ventajas, ¿cuál no es un efecto directo de la normalización por lotes (Batch Normalization)?
A
Aceleración de la convergencia del entrenamiento
B
Reducción de la sensibilidad a la inicialización de los pesos
C
Eliminación completa del sobreajuste
D
Reducción del "Internal Covariate Shift"
10
¿Qué función de pérdida se utiliza en PyTorch para un problema de clasificación multiclase como MNIST?
A
MSELoss
B
CrossEntropyLoss
C
Hinge Loss
D
Max-margin loss
Score: 0/10
Puntuación: 0/10