• 2022-07-28
    关于ReLU和Sigmoid激活函数,在深度神经网络的中间层,建议使用ReLU。
    A: 正确
    B: 错误
  • A

    内容

    • 0

      中国大学MOOC: 假设有一个使用ReLU激活函数(ReLU activation function)的神经网络,假如把ReLU激活替换为线性激活,那么这个神经网络能够模拟出异或函数吗?注意:使用ReLU激活函数的神经网络是能够模拟出异或函数。

    • 1

      常用的非线性激活函数有Sigmoid、tanh、ReLU等,适合于全连接层的激活函数是( ) A: . Sigmoid B: tanh C: ReLU

    • 2

      相比sigmoid激活函数,ReLU激活函数有什么优势?

    • 3

      假设有一个使用ReLU激活函数(ReLUactivationfunction)的神经网络,假如把ReLU激活替换为线性激活,那么这个神经网络能够模拟出异或函数吗?注意:使用ReLU激活函数的神经网络是能够模拟出异或函数。 A: 可以 B: 不可以 C: 看情况而定 D: 其他都不正确

    • 4

      .假设我们有一个使用ReLU激活函数(ReLU activation function)的神经网络,假如我们把ReLU激活替换为线性激活,那么这个神经网络能够模拟出同或函数(XNOR function)吗?( )