神经元常用的激活函数有?
A: Sigmoid函数
B: Relu函数
C: f(x)函数
D: cos()函数
A: Sigmoid函数
B: Relu函数
C: f(x)函数
D: cos()函数
举一反三
- 相比sigmoid激活函数,ReLU激活函数有什么优势?
- 常用的非线性激活函数有Sigmoid、tanh、ReLU等,适合于全连接层的激活函数是( ) A: . Sigmoid B: tanh C: ReLU
- 以下会造成梯度消失的激活函数有 A: sigmoid函数 B: ReLU函数 C: tanh函数 D: softplus函数
- 【单选题】深度学习中常用的激活函数不包括()。 A. sign 函数 B. Sigmoid 函数 C. ReLU 函数 D. Sin 函数
- 下列哪个函数不是常用的神经网络激活函数______。 A: y = 3x B: y = ReLU(x) C: y = Sigmoid (x) D: y = tanh(x)