人工神经网络中的常用激活函数有:sign, ReLU , (), ()
Sigmoid;Logistic函数# tanh;双曲正切函数
举一反三
- ReLU是人工神经网络中常用的激活函数。假设该激活函数别分输入-20、0、30,则输出为分别为_______和________。
- 【单选题】深度学习中常用的激活函数不包括()。 A. sign 函数 B. Sigmoid 函数 C. ReLU 函数 D. Sin 函数
- 中国大学MOOC: 假设有一个使用ReLU激活函数(ReLU activation function)的神经网络,假如把ReLU激活替换为线性激活,那么这个神经网络能够模拟出异或函数吗?注意:使用ReLU激活函数的神经网络是能够模拟出异或函数。
- .假设我们有一个使用ReLU激活函数(ReLU activation function)的神经网络,假如我们把ReLU激活替换为线性激活,那么这个神经网络能够模拟出同或函数(XNOR function)吗?( )
- 关于ReLU和Sigmoid激活函数,在深度神经网络的中间层,建议使用ReLU。
内容
- 0
假设有一个使用ReLU激活函数(ReLUactivationfunction)的神经网络,假如把ReLU激活替换为线性激活,那么这个神经网络能够模拟出异或函数吗?注意:使用ReLU激活函数的神经网络是能够模拟出异或函数。 A: 可以 B: 不可以 C: 看情况而定 D: 其他都不正确
- 1
假设我们有一个使用ReLU激活函数(ReLU activation function)的神经网络,假如我们把 [br][/br]ReLU激活替换为线性激活,那么这个神经网络能够模拟出同或函数(XNOR function)吗? A: 可以 B: 不好说 C: 不一定 D: 不能
- 2
常用的非线性激活函数有Sigmoid、tanh、ReLU等,适合于全连接层的激活函数是( ) A: . Sigmoid B: tanh C: ReLU
- 3
关于ReLU和Sigmoid激活函数,在深度神经网络的中间层,建议使用ReLU。 A: 正确 B: 错误
- 4
卷积层常用的激活函数是relu。