卷积神经网络常用的激活函数是ReLU函数,相比于 Sigmoid等S型激活函数,它具有( )等特性
A: 稀疏
B: 不饱和
C: 计算快
D: 随机
A: 稀疏
B: 不饱和
C: 计算快
D: 随机
举一反三
- Alexnet卷积神经网络的卷积层中采用的激活函数为( ) A: softmax函数 B: Relu函数 C: sigmoid函数 D: tanh函数
- 常用的非线性激活函数有Sigmoid、tanh、ReLU等,适合于全连接层的激活函数是( ) A: . Sigmoid B: tanh C: ReLU
- 下面关于Relu和Sigmoid激活函数说法错误的是 A: Relu激活函数相比于Sigmoid激活函数计算更简单 B: Relu激活函数是一种线性的激活函数 C: Sigmoid激活很容易出现梯度消失的情况 D: Relu减少了参数间的相互依存关系,缓解了过拟合问题的发生
- relu 相比于 sigmoid、tanh 的优势在哪里 A: 属于非饱和激活函数 B: 属于饱和激活函数 C: 简单速度快 D: 增加网络非线性
- 相比sigmoid激活函数,ReLU激活函数有什么优势?