______是用来为神经网络引入非线性处理能力的函数。
A: 优化函数
B: 激活函数
C: 损失函数
D: softmax
A: 优化函数
B: 激活函数
C: 损失函数
D: softmax
举一反三
- 激活函数对于神经网络模型学习、理解非常复杂的问题有着重要的作用,以下关于激活函数说法正确的是() A: 激活函数都是线性函数 B: 激活函数都是非线性函数 C: 激活函数部分是非线性函数,部分是线性函数 D: 激活函数大多数是非线性函数,少数是线性函数
- 以下不是卷积神经网络的激活函数的是() A: sigmod函数 B: tanh函数 C: ReLU函数 D: softmax函数
- Softmax回归进行多分类的非线性函数和损失函数分别是什么? A: Softmax函数 B: Sigmoid 函数 C: MSE损失 D: 交叉熵损失
- Alexnet卷积神经网络的卷积层中采用的激活函数为( ) A: softmax函数 B: Relu函数 C: sigmoid函数 D: tanh函数
- 用于多分类问题的深度神经网络选择( )作为其输出层激活函数比较合理。 A: Sigmoid函数 B: 阶跃函数 C: ReLU函数 D: Softmax函数