登录
注册
首页
->
深度学习
下载题库
在深度神经网络中,通常使用一种叫修正线性单元(Rectified linear unit,ReLU)作为神经元的激活函数
(A)是
(B)否
参考答案
继续答题:
下一题
更多深度学习试题
1
vanishing gradient problem 是指在BP算法的过程中,error项逐渐变小,使得越靠前的网络层的学习速率越来越低
2
现有一个32X32大小的图像,通过步长为1,填充p=1,大小为5X5的卷积核卷积后,结果尺寸成为
3
归一化指数函数Softmax函数,是用来将运算结果映射到概率空间。
4
深度学习算法可以分为监督学习和非监督学习两类。()
5
以下选项中关于图像识别云服务描述错误的是?( )
6
就目前学习,损失函数有均方差表达,和交叉熵表达。
考试