He初始化也称为MSRA初始化,是针对神经网络中经常使用的ReLU激活函数的权重初始化方案,其设计的主[br][/br]要目的是()。
A: 促使所有层的方差尽量相似,从而减少梯度消失的问题
B: 通过加倍权重方差,解决ReLU激活函数丢弃负方向方差造成的信息损失问题
C: 解决不同特征间维度数量级差别较大的问题
D: 打破神经元之间的对称性,使得神经网络可以被学习
A: 促使所有层的方差尽量相似,从而减少梯度消失的问题
B: 通过加倍权重方差,解决ReLU激活函数丢弃负方向方差造成的信息损失问题
C: 解决不同特征间维度数量级差别较大的问题
D: 打破神经元之间的对称性,使得神经网络可以被学习
B
举一反三
- Xavier初始化又称为Glorot初始化,它确保所有层的方差尽量相似,从而可以帮助减少梯度消失的问题,使得[br][/br]梯度在神经网络种可以传递得更深。但它出现于ReLU函数之前,因此对ReLU激活函数没有作用。
- 下面有关神经网络的说法,正确的是? A: 神经网络神经元的输出都是传给其他神经元,不能再反馈回来 B: 神经网络的训练主要是针对神经元之间的权重和神经元的偏置进行一定的调整,使得代价函数极小化 C: 均方差损失函数是神经网络常用的一种代价函数(损失函数) D: 神经网络不同层次的神经元可以使用不同的激活函数
- 下面有关神经网络的说法,错误的是? A: 神经网络神经元的输出都是传给其他神经元,不能再反馈回来 B: 神经网络不同层次的神经元可以使用不同的激活函数 C: 均方差损失函数是神经网络常用的一种代价函数(损失函数) D: 神经网络的训练主要是针对神经元之间的权重和神经元的偏置进行一定的调整,使得代价函数极小化
- 下面有关神经网络的说法,正确的是? A: 神经网络神经元的输出都是传给其他神经元,不能再反馈回来。 B: 神经网络的训练主要是针对神经元之间的权重和神经元的偏置进行一定的调整,使得代价函数极小化。 C: 神经网络不同层次的神经元可以使用不同的激活函数。 D: 均方差损失函数是神经网络常用的一种代价函数(损失函数)。
- 关于权值初始化描述错误的有: A: 初始化时让权值不相等,并不能保证网络能够正常的被训练。 B: 有效的初始化方法:使网络各层的激活值和局部梯度的方差在传播过程中尽量保持不同;以保持网络中正向和反向数据流动。 C: Xavier初始化目标:使网络各层的激活值和局部梯度的方差在传播过程中尽量保持一致,即寻找 w 的分布使得输出 y 与输入 z 的方差一致 D: He初始化替换掉了Xavier中效率低下的ReLU函数
内容
- 0
哪些方法可以减少深度学习的梯度消失问题? A: 减少网络深度 B: 预训练+微调 C: 使用ReLU激活函数 D: 使用Sigmoid激活函数
- 1
如果深度学习神经网络出现了梯度消失或梯度爆炸问题我们常用的解决方法为() A: 梯度剪切 B: 随机欠采样 C: 使用Relu激活函数 D: 正则化
- 2
下面有关神经网络梯度消失说法错误的是() A: 当神经网络的隐层增加时,就容易发生梯度消失问题,表现在靠近输入层的权重难以更新。 B: 网络梯度消失可能导致有些权重难以更新,导致网路训练失败。 C: 网络梯度消失可以通过改变隐层和输出层的神经元激活函数减弱。 D: 网络梯度消失可以通过减少隐层神经元的个数减弱。
- 3
下面有关神经网络的说法,正确的是 A: 神经网络神经元的输出都是传给其他神经元,不能再反馈回来 B: 神经网络不同层次的神经元可以使用不同的激活函数 C: 神经网络不同层次的神经元可以使用不同的激活函数 D: 神经网络的训练主要是针对神经元之间的权重和神经元的偏置进行一定的调整,使得代价函数极小化
- 4
有关神经网络参数初始化的说法错误的是哪个? A: 权重和偏置都可以取全零初始化 B: 使用正态分布初始化,但权重取太大或太小都会影响网络的训练 C: Xavier初始化可以减少梯度消失 D: 合适的权重初始化可以加快神经网络的训练和效果