¿Cuál es la principal diferencia entre el aprendizaje supervisado y no supervisado?
2
¿Cuál es el objetivo principal de un autoencoder en el contexto de la detección de anomalías no supervisada?
3
¿Cómo puede un autoencoder detectar una anomalía cuando se entrena únicamente con imágenes de un solo dígito (por ejemplo, el dígito 5) en el dataset MNIST?
4
¿Qué función de pérdida se utiliza para entrenar un autoencoder con imágenes del dataset MNIST para cuantificar la calidad de la reconstrucción?
5
¿Cuál es el papel de la capa Sigmoid en el decodificador del autoencoder simple utilizado para reconstruir imágenes en niveles de gris normalizadas entre 0 y 1, como las del dataset MNIST?
6
En el contexto del "denoising autoencoder", ¿cuál es la principal diferencia en los datos de entrada y salida durante el entrenamiento?
7
¿Por qué se utiliza un autoencoder convolucional en el caso del denoising en MNIST en lugar de un autoencoder con capas completamente conectadas?
8
¿Cuál es el impacto del nivel de ruido (variancia) añadido a las imágenes en la tarea de denoising?
9
¿Qué papel desempeña la función BatchNorm en las capas del autoencoder convolucional utilizado para el denoising?
10
¿Cuál es una ventaja potencial de probar la arquitectura U-Net para la tarea de denoising en comparación con un autoencoder clásico?