登录
注册
首页
->
深度学习
下载题库
vanishing gradient problem 是指在BP算法的过程中,error项逐渐变小,使得越靠前的网络层的学习速率越来越低
(A)梯度上升问题
(B)梯度优化
(C)梯度消失问题
(D)梯度下降法
参考答案
继续答题:
下一题
更多深度学习试题
1
归一化指数函数Softmax函数,是用来将运算结果映射到概率空间。
2
如果是填充后求卷积,图像尺寸不变化
3
关于超参数描述错误的是?( )
4
在一个神经网络里,知道每一个神经元的权重和偏差是最重要的一步,如果以某种方法知道了神经网络准确的权重和偏差,你就可以近似任何函数,实现这个最佳的方法是什么?( )
5
用sigmoid函数不能将运算映射到概率空间。
6
sigmoid函数也能将全数域函数,映射到概率空间。
考试