在输出层不能使用以下()激活函数来分类图像。
举一反三
- 下面关于激活函数的说法中错误的是 A: 隐含层或输出层具有激活函数。 B: 输入层没有激活函数。 C: 同一神经网络的激活函数必须是相同的。 D: 同一神经网络的隐含层和输出层的激活函数可以不同。
- 【单选题】假定在神经网络中的隐藏层中使用激活函数X,并且在该层神经元得到输出[-0.0001]。X可能是以下哪一个激活函数 A: ReLU B: tanh C: Sigmoid D: 以上都不是
- 下列关于激活函数的说法中,错误的是______。 A: 如果激活函数的输出不是以0为均值的,可能会影响收敛速度 B: sigmoid函数存在梯度消失问题 C: 使用logistic函数作为激活函数时,神经网络的输出可以看作概率 D: 使用Tanh函数来代替logistic函数,可以避免梯度消失问题
- __最合适作为多分类任务中输出层的激活函数。A.softmax函数B.logistic函数C.sigmoid函数D.ReLU函数() A: 1 B: 2 C: 3 D: 4
- 用于多分类问题的深度神经网络选择( )作为其输出层激活函数比较合理。 A: Sigmoid函数 B: 阶跃函数 C: ReLU函数 D: Softmax函数