返回课程
下一页
互动测验
测试你的知识!
1
监督学习和无监督学习的主要区别是什么?
A
监督学习仅使用无标签数据,而无监督学习使用标签数据。
B
监督学习使用标签数据(x 和 y),而无监督学习仅使用输入数据(x),没有对应的输出。
C
监督学习无法用于异常检测,而无监督学习可以。
D
监督学习总是比无监督学习更快。
2
在无监督异常检测的背景下,自编码器的主要目标是什么?
A
显式预测输入数据的标签。
B
压缩输入数据并重建,以检测正常数据和异常数据之间的差异。
C
将数据分类为不同的类别。
D
生成新的合成数据。
3
当自编码器仅在 MNIST 数据集中单个数字的图像(例如数字 5)上训练时,如何检测异常?
A
通过直接在输出端进行分类。
B
通过分析重建质量:与训练数字不同的图像重建效果差,表明存在异常。
C
通过计算输入图像与平均向量之间的距离。
D
仅使用卷积神经网络。
4
在 MNIST 数据集的图像上训练自编码器时,使用哪种损失函数来量化重建质量?
A
交叉熵(Cross Entropy),因为这是一个分类任务。
B
均方误差损失(MSELoss),计算原始图像和重建图像之间逐像素差异平方的平均值。
C
Hinge Loss,用于最大化类别间的边界。
D
L1 Loss,用于惩罚绝对误差。
5
在用于重建归一化到 0 到 1 之间的灰度图像(如 MNIST 数据集图像)的简单自编码器的解码器中,Sigmoid 层的作用是什么?
A
将输出归一化到 0 到 1 之间,对应 MNIST 图像的像素值范围。
B
应用线性激活以加速训练。
C
增加网络的深度。
D
引入非线性以编码数据。
6
在“去噪自编码器”的背景下,训练时输入和输出数据的主要区别是什么?
A
输入是干净的图像,输出是带噪声的图像。
B
输入是带噪声的图像,输出是原始干净的图像。
C
输入和输出都是带噪声的图像,但噪声水平不同。
D
输入是干净的图像,输出是随机重建的图像。
7
在 MNIST 数据集的去噪任务中,为什么使用卷积自编码器而非全连接层自编码器?
A
卷积自编码器专门设计用于处理序列数据。
B
卷积自编码器利用图像的空间结构,更适合图像处理。
C
全连接层自编码器太快且无法收敛。
D
卷积自编码器的参数比全连接层少。
8
向图像中添加的噪声水平(方差)对去噪任务有何影响?
A
噪声水平越高,去噪任务越容易。
B
噪声水平对模型性能没有影响。
C
噪声水平越高,去噪任务越困难,且重建伪影可能增加。
D
模型会忽略高斯噪声。
9
在用于去噪的卷积自编码器中,BatchNorm 层的作用是什么?
A
归一化激活以稳定并加速学习。
B
向激活中添加噪声以正则化模型。
C
替代 ReLU 激活函数。
D
减小输出图像的尺寸。
10
与经典自编码器相比,测试 U-Net 架构在去噪任务中的一个潜在优势是什么?
A
U-Net 更简单且需要更少的数据。
B
U-Net 通过编码器和解码器之间的跳跃连接,能更好地保留细节。
C
U-Net 无法用于图像重建。
D
U-Net 仅适用于彩色图像。
Score: 0/10
得分: 0/10