【单选题】深度学习中常用的激活函数不包括()。
A. sign 函数
B. Sigmoid 函数
C. ReLU 函数
D. Sin 函数
A. sign 函数
B. Sigmoid 函数
C. ReLU 函数
D. Sin 函数
举一反三
- 神经元常用的激活函数有? A: Sigmoid函数 B: Relu函数 C: f(x)函数 D: cos()函数
- 常用的非线性激活函数有Sigmoid、tanh、ReLU等,适合于全连接层的激活函数是( ) A: . Sigmoid B: tanh C: ReLU
- 相比sigmoid激活函数,ReLU激活函数有什么优势?
- 以下会造成梯度消失的激活函数有 A: sigmoid函数 B: ReLU函数 C: tanh函数 D: softplus函数
- 用于多分类问题的深度神经网络选择( )作为其输出层激活函数比较合理。 A: Sigmoid函数 B: 阶跃函数 C: ReLU函数 D: Softmax函数