返回课程
下一页
互动测验
测试你的知识!
1
函数 \( f \) 在点 \( x \) 处的导数定义是什么?
A
\( f'(x) = \lim_{h \to 0} \frac{f(x+h) - f(x)}{h} \)
B
\( f'(x) = \lim_{h \to 0} \frac{f(x) - f(x+h)}{h} \)
C
\( f'(x) = \frac{f(x+h) + f(x)}{h} \)
D
\( f'(x) = \frac{f(x) - f(x-h)}{h} \)
2
梯度下降在优化中的主要作用是什么?
A
找到函数的全局最大值
B
在不计算导数的情况下找到函数的局部最小值
C
通过沿斜率调整变量来找到函数的最小值
D
在不使用导数的情况下解代数方程
3
在梯度下降法中,每次迭代中变量 \( x \) 是如何更新的?
A
\( x_{\text{new}} = x + \alpha \times f'(x) \)
B
\( x_{\text{new}} = x - \alpha \times f'(x) \)
C
\( x_{\text{new}} = x \times \alpha \times f'(x) \)
D
\( x_{\text{new}} = x / (\alpha \times f'(x)) \)
4
微分学中的链式法则是什么?
A
和的导数等于导数的和
B
若 \( y \) 依赖于 \( u \) 且 \( u \) 依赖于 \( x \),则 \( \frac{dy}{dx} = \frac{dy}{du} \cdot \frac{du}{dx} \)
C
积的导数等于导数的积
D
常数函数的导数等于其本身
5
在多变量梯度下降的背景下,如何计算 \( y \) 对变量 \( a \) 的偏导数?
A
\( \frac{dy}{da} = \frac{dy}{db} \cdot \frac{db}{da} \)
B
\( \frac{dy}{da} = \frac{dy}{du} \cdot \frac{du}{da} \)
C
\( \frac{dy}{da} = \frac{dy}{dc} \cdot \frac{dc}{da} \)
D
\( \frac{dy}{da} = \frac{dy}{da} \cdot \frac{da}{da} \)
6
人工神经元中用作激活函数的 sigmoid 函数 \( \sigma(x) \) 的公式是什么?
A
\( \sigma(x) = \max(0, x) \)
B
\( \sigma(x) = \frac{1}{1 + e^{-x}} \)
C
\( \sigma(x) = \tanh(x) \)
D
\( \sigma(x) = \begin{cases} 1 & \text{若 } x > 0 \\ 0 & \text{否则} \end{cases} \)
7
为什么 Heaviside 函数不太适合用于神经网络的梯度下降训练?
A
因为它是非线性的
B
因为它不可导
C
因为它不产生二进制输出
D
因为它总是正的
8
逻辑回归中,对于真实标签 \( y_{true} \) 和预测值 \( pred \) 的单个数据点,损失函数(loss)的一般形式是什么?
A
\( loss = (y_{true} - pred)^2 \)
B
\( loss = - \left( y_{true} \cdot \log(pred) + (1 - y_{true}) \cdot \log(1 - pred) \right) \)
C
\( loss = | y_{true} - pred | \)
D
\( loss = y_{true} \cdot pred \)
9
在逻辑回归中,损失函数关于权重 \( w_0 \) 的偏导数是什么?
A
\( \frac{\partial loss}{\partial w_0} = (pred - y_{true}) \cdot x_0 \)
B
\( \frac{\partial loss}{\partial w_0} = (y_{true} - pred) \cdot x_0 \)
C
\( \frac{\partial loss}{\partial w_0} = pred \cdot (1 - pred) \cdot x_0 \)
D
\( \frac{\partial loss}{\partial w_0} = \log(pred) \cdot x_0 \)
10
输入为 \( \mathbf{x} \),权重为 \( \mathbf{w} \),偏置为 \( b \),激活函数为 \( \phi \) 的人工神经元的输出如何计算?
A
\( output = \sum_i x_i + w_i + b \)
B
\( output = \phi\left(\sum_i w_i x_i + b\right) \)
C
\( output = \phi\left(\sum_i x_i w_i b\right) \)
D
\( output = \phi\left(\sum_i x_i + w_i\right) + b \)
Score: 0/10
得分: 0/10