返回课程
下一页
互动测验
测试你的知识!
1
在随机梯度下降中使用小批量(mini-batch)的主要原因是什么?
A
保证每次迭代损失都减少
B
减少内存消耗并加速大数据集的训练
C
增加数据集的大小
D
避免计算梯度
2
在神经网络中,逻辑回归神经元的主要作用是什么?
A
计算输入的加权和而不应用激活函数
B
应用非线性 sigmoid 激活函数,产生 0 到 1 之间的输出
C
对输入数据进行卷积操作
D
在循环网络中记忆之前的状态
3
在二分类问题中,哪种损失函数常用于最大化类间的间隔?
A
均方误差(MSE)
B
交叉熵
C
Hinge 损失(hinge loss)
D
最大间隔损失
4
在 PyTorch 中,哪个类用于创建包含输入和标签的数据集?
A
DataLoader
B
TensorDataset
C
DatasetLoader
D
BatchSampler
5
在 PyTorch 中构建神经网络时,哪个函数用于应用全连接层?
A
nn.Conv2d
B
nn.Linear
C
nn.ReLU
D
nn.Dropout
6
在神经网络训练中,L2 正则化的主要目标是什么?
A
鼓励权重变大以提高精度
B
对权重的平方添加惩罚项以减少过拟合
C
随机删除网络中的某些神经元
D
归一化每一层的输入
7
在神经网络训练中,Dropout 技术的作用是什么?
A
归一化激活以加速训练
B
随机失活部分神经元以提升泛化能力
C
减少数据集的大小
D
增加网络的深度
8
Batch Normalization 对一批激活值执行什么操作?
A
应用非线性激活函数
B
将激活值归一化为均值 0 和方差 1,再通过可学习参数调整
C
随机删除部分神经元
D
增加激活值的方差以提高鲁棒性
9
以下哪个优势不是 Batch Normalization 的直接效果?
A
加速训练收敛
B
减少对权重初始化的敏感性
C
完全消除过拟合
D
减少“内部协变量偏移”(Internal Covariate Shift)
10
在 PyTorch 中,处理多类别分类问题(如 MNIST)时使用哪种损失函数?
A
MSELoss
B
CrossEntropyLoss
C
Hinge Loss
D
Max-margin loss
Score: 0/10
得分: 0/10