• 2022-07-28
    中国大学MOOC: 减少神经网络过拟合的说法,以下哪些是正确的?
  • 在神经网络训练过程中类似dropout减少神经元或相关链接权的数量 利用L1或L2正则化可以使权重衰减,从而一定程度上减少过拟合 通过正则化可以减少网络参数的取值或个数,一定程度可能减少过拟合

    内容

    • 0

      中国大学MOOC: 下面哪个选项不是神经网络训练过程中过拟合的防止方法?

    • 1

      训练分类机器学习模型时需要避免过拟合和欠拟合的问题,关于这些问题以下说法错误的是() A: 复杂的模型时容易发生欠拟合问题 B: 神经网络不会出现过拟合问题 C: 正则化方法可以减少过拟合问题 D: 增加数据量不能减少过拟合问题

    • 2

      中国大学MOOC: 有关决策树过拟合的说法,错误的是?

    • 3

      中国大学MOOC: 以下关于人工神经网络(ANN)的描述正确的说法是 哪个?

    • 4

      以下关于过拟合和欠拟合说法正确的是 A: 过拟合一般表现为偏差较大 B: 欠拟合一般表现为方差较大 C: 过拟合可以通过减少变量来缓解 D: 欠拟合可以通过正则化来解决