下面哪些关于卷积神经网络的说法是错误的?
A: ReLU非线性激活函数的收敛速度比Sigmoid快一些
B: 在限制神经元总数的情况下,增加网络的宽度要比增加网络的深度能带来更强的网络表示能力
C: 激活函数为Tanh的深层神经网络可以看成一个复合的非线性多元函数
D: 输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量为750(包括偏置)
A: ReLU非线性激活函数的收敛速度比Sigmoid快一些
B: 在限制神经元总数的情况下,增加网络的宽度要比增加网络的深度能带来更强的网络表示能力
C: 激活函数为Tanh的深层神经网络可以看成一个复合的非线性多元函数
D: 输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量为750(包括偏置)
举一反三
- 以下哪个有关卷积神经网络的说法是错误的? A: 使用激活函数Relu的收敛速度比Sigmoid要快一些 B: 在网络规模相同的情况下,增加网络深度比增加宽度能带来更强的网络特征获取能力 C: 输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量是260(含偏置) D: 隐层的神经元输入输出可以看成一个相关权重和偏置的复合非线性多元函数。
- Alexnet卷积神经网络的卷积层中采用的激活函数为( ) A: softmax函数 B: Relu函数 C: sigmoid函数 D: tanh函数
- relu 相比于 sigmoid、tanh 的优势在哪里 A: 属于非饱和激活函数 B: 属于饱和激活函数 C: 简单速度快 D: 增加网络非线性
- 关于激活函数以下说法正确的是?() A: sigmoid函数在深度神经网络中梯度反向传递时容易导致梯度消失 B: tanh函数对于规模比较大的深度网络计算速度比较慢 C: ReLU函数计算速度和收敛速度都比tanh/sigmoid快 D: ReLU函数的正区间存在梯度消失的问题
- 人工神经网络是一个非线性系统,即便网络中节点(神经元)的激励函数都是线性函数。