卷积层常用的激活函数是relu。
举一反三
- Alexnet卷积神经网络的卷积层中采用的激活函数为( ) A: softmax函数 B: Relu函数 C: sigmoid函数 D: tanh函数
- 常用的非线性激活函数有Sigmoid、tanh、ReLU等,适合于全连接层的激活函数是( ) A: . Sigmoid B: tanh C: ReLU
- 卷积神经网络常用的激活函数是ReLU函数,相比于 Sigmoid等S型激活函数,它具有( )等特性 A: 稀疏 B: 不饱和 C: 计算快 D: 随机
- 卷积神经网络中常用的卷积层、激活层、BN层,它们最常见的顺序是怎样的? A: 卷积层→BN层→激活层 B: 卷积层→激活层→BN层 C: BN层→卷积层→激活层 D: 激活层→卷积层→BN层
- 以下不是卷积神经网络的激活函数的是() A: sigmod函数 B: tanh函数 C: ReLU函数 D: softmax函数