• 2022-06-26 问题

    下列哪些方法是梯度下降法的改进?() A: 批量梯度下降(Batchgradientdescent) B: 随机梯度下降(Stochasticgradientdescent) C: 小批量梯度下降(Mini-batchgradientdescent)

    下列哪些方法是梯度下降法的改进?() A: 批量梯度下降(Batchgradientdescent) B: 随机梯度下降(Stochasticgradientdescent) C: 小批量梯度下降(Mini-batchgradientdescent)

  • 2022-05-28 问题

    有关机器学习算法,以下说法中不正确的是:() A: 之所以说监督学习和无监督学习之间并不存在一条严格的界限,是因为很难客观地区分监督者给定的一个值是特征(feature)还是目标(target)。 B: 当深度学习网络的最后一层是一个softmax分类器时,我们可以把网络的前面部分看成是一种表示学习(RepresentationLearning)的计算单元。 C: 一个聚类算法将样本分成k个不同的聚类(cluster),从另一个角度说,这个聚类算法其实是为样本中的每一个实例提供了一种k维的one-hot编码方式 D: 随机梯度下降(StochasticGradientDescent)算法是用小规模的样本近似估计梯度的方法,适合在大规模数据上训练深度神经网络,但在逻辑回归、SVM等算法中的作用很有限。

    有关机器学习算法,以下说法中不正确的是:() A: 之所以说监督学习和无监督学习之间并不存在一条严格的界限,是因为很难客观地区分监督者给定的一个值是特征(feature)还是目标(target)。 B: 当深度学习网络的最后一层是一个softmax分类器时,我们可以把网络的前面部分看成是一种表示学习(RepresentationLearning)的计算单元。 C: 一个聚类算法将样本分成k个不同的聚类(cluster),从另一个角度说,这个聚类算法其实是为样本中的每一个实例提供了一种k维的one-hot编码方式 D: 随机梯度下降(StochasticGradientDescent)算法是用小规模的样本近似估计梯度的方法,适合在大规模数据上训练深度神经网络,但在逻辑回归、SVM等算法中的作用很有限。

  • 1