• 2022-07-27 问题

    训练神经网络时,以下哪种激活函数最容易造成梯度消失: (       ) A: tanh B: sigmoid C: ReLU D: leaky ReLU

    训练神经网络时,以下哪种激活函数最容易造成梯度消失: (       ) A: tanh B: sigmoid C: ReLU D: leaky ReLU

  • 2022-06-11 问题

    which type of epithelium is thin and leaky and lines blood vessels and the air sacs of the lungs A: Stratified squamous epithelium B: Cuboidal epithelium C: Simple squamous epithelium D: Simple columnar epithelium

    which type of epithelium is thin and leaky and lines blood vessels and the air sacs of the lungs A: Stratified squamous epithelium B: Cuboidal epithelium C: Simple squamous epithelium D: Simple columnar epithelium

  • 2022-06-11 问题

    你正在构建一个识别足球(y = 1)与篮球(y = 0)的二元分类器。你会使用哪一种激活函数用于输出层?(<br/>) A: Leaky ReLU B: sigmoid C: tanh D: ReLU

    你正在构建一个识别足球(y = 1)与篮球(y = 0)的二元分类器。你会使用哪一种激活函数用于输出层?(<br/>) A: Leaky ReLU B: sigmoid C: tanh D: ReLU

  • 2022-07-24 问题

    在DCGAN中,判别器的激活函数可以使用Leaky ReLU,而不采用Sigmoid的原因是以下哪个? A: 生成器的任务重,减少计算量。 B: 增加生成样本的多样性。 C: 防止判别器在训练过程中发生梯度消失。 D: 判别器的任务是分类,而不是生成假样本。

    在DCGAN中,判别器的激活函数可以使用Leaky ReLU,而不采用Sigmoid的原因是以下哪个? A: 生成器的任务重,减少计算量。 B: 增加生成样本的多样性。 C: 防止判别器在训练过程中发生梯度消失。 D: 判别器的任务是分类,而不是生成假样本。

  • 2022-07-28 问题

    以下关于ReLU函数说法错误的是: A: ReLU 函数的输出是非零中心化的, 给后一层的神经网络引入偏置偏移,会影响梯度下降的效率 B: ReLU 神经元在训练时比较容易“死亡”. 在训练时, 如果参数在一次不恰当的更新后, 第一个隐藏层中的某个 ReLU 神经元在所有的训练数据上都不能被激活, 那么这个神经元自身参数的梯度永远都会是0, 在以后的训练过程中永远不能被激活. C: Leaky ReLU 在输入时,保持一个很小的梯度,这样当神经元非激活时也能有一个非零的梯度可以更新参数,这在一定程度上缓解了梯度消失问题 D: 三个选项均正确

    以下关于ReLU函数说法错误的是: A: ReLU 函数的输出是非零中心化的, 给后一层的神经网络引入偏置偏移,会影响梯度下降的效率 B: ReLU 神经元在训练时比较容易“死亡”. 在训练时, 如果参数在一次不恰当的更新后, 第一个隐藏层中的某个 ReLU 神经元在所有的训练数据上都不能被激活, 那么这个神经元自身参数的梯度永远都会是0, 在以后的训练过程中永远不能被激活. C: Leaky ReLU 在输入时,保持一个很小的梯度,这样当神经元非激活时也能有一个非零的梯度可以更新参数,这在一定程度上缓解了梯度消失问题 D: 三个选项均正确

  • 1