• 2022-06-19
    关于神经网络的相关概念,说法错误的是哪些?
    A: 对激活函数的输出结果进行范围限定,有助于梯度平稳下降,而ReLU输出范围无限的函数会导致梯度消失问题。
    B: ReLU函数中所有负值均被截断为结果0,从而导致特征丢失,可适当调高学习率避免此类情况。
    C: 在神经网络训练中,动态调整学习率综合考虑当前点的梯度、最近几次训练误差的降低情况等效果更好。
    D: 随机梯度下降(SGD)每次更新只随机取一个样本,可以按照固定学习率计算梯度,所以速度较快。
  • 举一反三