以下哪个有关卷积神经网络的说法是错误的?
A: 使用激活函数Relu的收敛速度比Sigmoid要快一些
B: 在网络规模相同的情况下,增加网络深度比增加宽度能带来更强的网络特征获取能力
C: 输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量是260(含偏置)
D: 隐层的神经元输入输出可以看成一个相关权重和偏置的复合非线性多元函数。
A: 使用激活函数Relu的收敛速度比Sigmoid要快一些
B: 在网络规模相同的情况下,增加网络深度比增加宽度能带来更强的网络特征获取能力
C: 输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量是260(含偏置)
D: 隐层的神经元输入输出可以看成一个相关权重和偏置的复合非线性多元函数。
举一反三
- 下面哪些关于卷积神经网络的说法是错误的? A: ReLU非线性激活函数的收敛速度比Sigmoid快一些 B: 在限制神经元总数的情况下,增加网络的宽度要比增加网络的深度能带来更强的网络表示能力 C: 激活函数为Tanh的深层神经网络可以看成一个复合的非线性多元函数 D: 输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量为750(包括偏置)
- 假设输入一个300*300的彩色(RGB)图像,使用全连接神经网络,如果第一层隐藏层有100个5*5的卷积核卷积,那么隐含层一共有多少个参数(不包含偏置)。 A: 2500 B: 7500 C: 7600 D: 2600
- 假设输入是一个300*300的彩色(RGB)图像,并且没有使用卷积神经网络。如果第一个隐层有100个神经元,每个神经元与输入层进行全连接,那么这个隐藏层有多少个参数(包括偏置参数)?( ) A: 300*300*3*100 B: 300*300*3*100+100 C: 300*3*100 D: 300*3*100+100
- 下面有关神经网络梯度消失说法错误的是() A: 当神经网络的隐层增加时,就容易发生梯度消失问题,表现在靠近输入层的权重难以更新。 B: 网络梯度消失可能导致有些权重难以更新,导致网路训练失败。 C: 网络梯度消失可以通过改变隐层和输出层的神经元激活函数减弱。 D: 网络梯度消失可以通过减少隐层神经元的个数减弱。
- 假设输入是一个300*300的彩色(RGB)图像,并且使用卷积神经网络,并且使用卷积层和100个过滤器,每个过滤器都是5*5的大小,请问这个隐藏层有多少个参数(包括偏置参数)?( ) A: 5*5*3*100+100 B: 5*5*3*300*300 C: 5*5*100 D: 5*5*100+100