• 2022-07-28
    中国大学MOOC: 假设有一个使用ReLU激活函数(ReLU activation function)的神经网络,假如把ReLU激活替换为线性激活,那么这个神经网络能够模拟出异或函数吗?注意:使用ReLU激活函数的神经网络是能够模拟出异或函数。
  • 不可以

    内容

    • 0

      人工神经网络中的常用激活函数有:sign, ReLU , (), ()

    • 1

      训练神经网络时,以下哪种激活函数最容易造成梯度消失: (       ) A: tanh B: sigmoid C: ReLU D: leaky ReLU

    • 2

      ReLU是人工神经网络中常用的激活函数。假设该激活函数别分输入-20、0、30,则输出为分别为_______和________。

    • 3

      以下不是卷积神经网络的激活函数的是() A: sigmod函数 B: tanh函数 C: ReLU函数 D: softmax函数

    • 4

      下面关于Relu和Sigmoid激活函数说法错误的是 A: Relu激活函数相比于Sigmoid激活函数计算更简单 B: Relu激活函数是一种线性的激活函数 C: Sigmoid激活很容易出现梯度消失的情况 D: Relu减少了参数间的相互依存关系,缓解了过拟合问题的发生