关于ReLU和Sigmod激活函数的说法错误的是:
A: ReLU的计算复杂性远低于Sigmod
B: ReLU不适合复杂度高的神经网络
C: ReLU和Sigmod都能确保y值不取负值
D: ReLU可以理解为Sigmod的简化形式
A: ReLU的计算复杂性远低于Sigmod
B: ReLU不适合复杂度高的神经网络
C: ReLU和Sigmod都能确保y值不取负值
D: ReLU可以理解为Sigmod的简化形式
举一反三
- 以下不是卷积神经网络的激活函数的是() A: sigmod函数 B: tanh函数 C: ReLU函数 D: softmax函数
- 下列______可以缓解梯度的消失问题且计算速度快。 A: sigmod激活函数 B: logistic激活函数 C: ReLU激活函数 D: Tanh激活函数
- 关于ReLU和Sigmoid激活函数,在深度神经网络的中间层,建议使用ReLU。
- 关于ReLU和Sigmoid激活函数,在深度神经网络的中间层,建议使用ReLU。 A: 正确 B: 错误
- 中国大学MOOC: 假设有一个使用ReLU激活函数(ReLU activation function)的神经网络,假如把ReLU激活替换为线性激活,那么这个神经网络能够模拟出异或函数吗?注意:使用ReLU激活函数的神经网络是能够模拟出异或函数。