以下不是卷积神经网络的激活函数的是()
A: sigmod函数
B: tanh函数
C: ReLU函数
D: softmax函数
A: sigmod函数
B: tanh函数
C: ReLU函数
D: softmax函数
举一反三
- Alexnet卷积神经网络的卷积层中采用的激活函数为( ) A: softmax函数 B: Relu函数 C: sigmoid函数 D: tanh函数
- 下列______可以缓解梯度的消失问题且计算速度快。 A: sigmod激活函数 B: logistic激活函数 C: ReLU激活函数 D: Tanh激活函数
- 以下哪个激活函数能使得网络变得更加稀疏( ) A: Tanh()函数 B: Sigmoid()函数 C: 其余都可以 D: ReLu()函数
- 以下选项中不可以做为神经网络中激活函数的是( )。 A: ReLU B: Softmax C: Sigmoid D: 交叉熵函数
- 以下会造成梯度消失的激活函数有 A: sigmoid函数 B: ReLU函数 C: tanh函数 D: softplus函数