• 2022-07-28 问题

    关于ReLU和Sigmod激活函数的说法错误的是: A: ReLU的计算复杂性远低于Sigmod B: ReLU不适合复杂度高的神经网络 C: ReLU和Sigmod都能确保y值不取负值 D: ReLU可以理解为Sigmod的简化形式

    关于ReLU和Sigmod激活函数的说法错误的是: A: ReLU的计算复杂性远低于Sigmod B: ReLU不适合复杂度高的神经网络 C: ReLU和Sigmod都能确保y值不取负值 D: ReLU可以理解为Sigmod的简化形式

  • 2022-07-28 问题

    关于ReLU和Sigmoid激活函数,在深度神经网络的中间层,建议使用ReLU。

    关于ReLU和Sigmoid激活函数,在深度神经网络的中间层,建议使用ReLU。

  • 2022-07-28 问题

    关于ReLU和Sigmoid激活函数,在深度神经网络的中间层,建议使用ReLU。 A: 正确 B: 错误

    关于ReLU和Sigmoid激活函数,在深度神经网络的中间层,建议使用ReLU。 A: 正确 B: 错误

  • 2022-07-28 问题

    中国大学MOOC: 假设有一个使用ReLU激活函数(ReLU activation function)的神经网络,假如把ReLU激活替换为线性激活,那么这个神经网络能够模拟出异或函数吗?注意:使用ReLU激活函数的神经网络是能够模拟出异或函数。

    中国大学MOOC: 假设有一个使用ReLU激活函数(ReLU activation function)的神经网络,假如把ReLU激活替换为线性激活,那么这个神经网络能够模拟出异或函数吗?注意:使用ReLU激活函数的神经网络是能够模拟出异或函数。

  • 2022-07-27 问题

    训练神经网络时,以下哪种激活函数最容易造成梯度消失: (       ) A: tanh B: sigmoid C: ReLU D: leaky ReLU

    训练神经网络时,以下哪种激活函数最容易造成梯度消失: (       ) A: tanh B: sigmoid C: ReLU D: leaky ReLU

  • 2022-07-28 问题

    .假设我们有一个使用ReLU激活函数(ReLU activation function)的神经网络,假如我们把ReLU激活替换为线性激活,那么这个神经网络能够模拟出同或函数(XNOR function)吗?( )

    .假设我们有一个使用ReLU激活函数(ReLU activation function)的神经网络,假如我们把ReLU激活替换为线性激活,那么这个神经网络能够模拟出同或函数(XNOR function)吗?( )

  • 2022-07-27 问题

    ReLU可以缓解梯度消失的问题。

    ReLU可以缓解梯度消失的问题。

  • 2022-06-08 问题

    常用的非线性激活函数有Sigmoid、tanh、ReLU等,适合于全连接层的激活函数是( ) A: . Sigmoid B: tanh C: ReLU

    常用的非线性激活函数有Sigmoid、tanh、ReLU等,适合于全连接层的激活函数是( ) A: . Sigmoid B: tanh C: ReLU

  • 2021-04-14 问题

    卷积层常用的激活函数是relu。

    卷积层常用的激活函数是relu。

  • 2022-06-08 问题

    下面关于Relu和Sigmoid激活函数说法错误的是 A: Relu激活函数相比于Sigmoid激活函数计算更简单 B: Relu激活函数是一种线性的激活函数 C: Sigmoid激活很容易出现梯度消失的情况 D: Relu减少了参数间的相互依存关系,缓解了过拟合问题的发生

    下面关于Relu和Sigmoid激活函数说法错误的是 A: Relu激活函数相比于Sigmoid激活函数计算更简单 B: Relu激活函数是一种线性的激活函数 C: Sigmoid激活很容易出现梯度消失的情况 D: Relu减少了参数间的相互依存关系,缓解了过拟合问题的发生

  • 1 2 3 4 5 6 7 8 9 10