.假设我们有一个使用ReLU激活函数(ReLU activation function)的神经网络,假如我们把ReLU激活替换为线性激活,那么这个神经网络能够模拟出同或函数(XNOR function)吗?( )
不能
举一反三
- 假设我们有一个使用ReLU激活函数(ReLU activation function)的神经网络,假如我们把 [br][/br]ReLU激活替换为线性激活,那么这个神经网络能够模拟出同或函数(XNOR function)吗? A: 可以 B: 不好说 C: 不一定 D: 不能
- 中国大学MOOC: 假设有一个使用ReLU激活函数(ReLU activation function)的神经网络,假如把ReLU激活替换为线性激活,那么这个神经网络能够模拟出异或函数吗?注意:使用ReLU激活函数的神经网络是能够模拟出异或函数。
- 假设有一个使用ReLU激活函数(ReLUactivationfunction)的神经网络,假如把ReLU激活替换为线性激活,那么这个神经网络能够模拟出异或函数吗?注意:使用ReLU激活函数的神经网络是能够模拟出异或函数。 A: 可以 B: 不可以 C: 看情况而定 D: 其他都不正确
- 关于ReLU和Sigmoid激活函数,在深度神经网络的中间层,建议使用ReLU。
- 人工神经网络中的常用激活函数有:sign, ReLU , (), ()
内容
- 0
关于ReLU和Sigmoid激活函数,在深度神经网络的中间层,建议使用ReLU。 A: 正确 B: 错误
- 1
使用下列代码建立神经网络模型,说法错误的是______。import tensorflow as tfmodel = tf.keras.Sequential()model.add(tf.keras.layers.Dense(8, activation="relu", input_shape=(4, )))model.add(tf.keras.layers.Dense(4, activation="relu"))model.add(tf.keras.layers.Dense(3, activation="softmax"))model.summary() A: 这个神经网络中有3层计算层 B: 这个神经网络中有计算功能的神经元有19个 C: 该模型的可训练参数个数共有91个 D: 这个神经网络的隐含层采用ReLu激活函数
- 2
训练神经网络时,以下哪种激活函数最容易造成梯度消失: ( ) A: tanh B: sigmoid C: ReLU D: leaky ReLU
- 3
相比sigmoid激活函数,ReLU激活函数有什么优势?
- 4
下面关于Relu和Sigmoid激活函数说法错误的是 A: Relu激活函数相比于Sigmoid激活函数计算更简单 B: Relu激活函数是一种线性的激活函数 C: Sigmoid激活很容易出现梯度消失的情况 D: Relu减少了参数间的相互依存关系,缓解了过拟合问题的发生