中国大学MOOC: 减少神经网络过拟合的说法,以下哪些是正确的?
举一反三
- 减少神经网络过拟合的说法,以下哪些是正确的? A: 通过正则化可以减少网络参数的取值或个数,一定程度可能减少过拟合 B: 通过增加数据扰动的数据增强增加了神经网络的过拟合 C: 利用L1或L2正则化可以使权重衰减,从而一定程度上减少过拟合 D: 在神经网络训练过程中类似dropout减少神经元或相关链接权的数量
- 中国大学MOOC: 当神经网络训练中出现了过拟合情况,可采用以下哪些方法进行优化。
- 减少神经网络过拟合的说法,以下哪些是错误的? A: 通过正则化可以减少网络参数的个数,一定程度可能增加过拟合 B: 利用L1或L2正则化可以使权重衰减,从而一定程度上减少过拟合 C: 在神经网络训练过程中类似dropout减少神经元或相关链接权的数量 D: 通过增加数据扰动的数据增强减少了神经网络的过拟合
- 中国大学MOOC: 关于欠拟合与过拟合,以下哪种说法是不正确的
- 中国大学MOOC: 以下有关卷积神经网络的说法哪些是正确的?