返回课程
下一页
互动测验
测试你的知识!
1
在神经网络中,Batch Normalization 的主要目标是什么?
A
减小批次大小以加速训练
B
归一化预激活值,使每一层的分布接近高斯分布
C
将激活函数替换为归一化函数
D
增加权重的方差以避免过拟合
2
为什么在 Batch Normalization 中添加了 gamma(bngain)和 beta(bnbias)参数?
A
为了增加批次大小
B
允许模型在标准化后恢复表达能力
C
替换前一层的权重
D
计算激活值的均值和方差
3
Batch Normalization 在推理(测试)阶段遇到的主要问题是什么?
A
批次中缺少样本导致无法计算批次的均值和方差
B
归一化仅在批次大小为 1 时有效
C
BatchNorm 运行时始终需要梯度
D
均值和方差必须在每次测试迭代中重新计算
4
通常使用哪种方法解决推理阶段 BatchNorm 的问题?
A
在推理阶段前重置网络权重
B
使用通过指数移动平均计算的整个数据集的均值和方差
C
在训练阶段将批次大小减少到 1
D
在推理阶段不使用归一化
5
Batch Normalization 和 Layer Normalization 之间的主要区别是什么?
A
BatchNorm 对通道归一化,LayerNorm 对批次归一化
B
BatchNorm 对批次维度归一化,LayerNorm 对每个样本的整层激活值归一化
C
BatchNorm 仅用于卷积网络,LayerNorm 仅用于循环网络
D
BatchNorm 不需要 gamma 和 beta 参数,LayerNorm 必须包含它们
Score: 0/5
得分: 0/5