下面哪一项对梯度下降(GD)和随机梯度下降(SGD)的描述是正确的? 1 在 GD 和 SGD 中,每一次迭代中都是更新一组参数以最小化损失函数。 2 在 SGD 中,每一次迭代都需要遍历训练集中的所有样本以更新一次参数。 3 在 GD 中,每一次迭代需要使用整个训练集或子训练集的数据更新一个参数。
(A)无向无环
(B)逻辑回归误差值必须正态分布,但是在线性回归的情况下,情况并非如此
(C)该特征并不属于以上的分类。
(D)都正确
参考答案
继续答题:下一题
(A)无向无环
(B)逻辑回归误差值必须正态分布,但是在线性回归的情况下,情况并非如此
(C)该特征并不属于以上的分类。
(D)都正确