在对于LSTM的变体GRU中,将LSTM中的记忆单元和神经元隐藏状态进行了合并。()
对
举一反三
- 在对于LSTM的变体GRU中,对于LSTM进行了如下更新:将LSTM中的输出门与遗忘门合并为更新门。()
- 比较长短期记忆网络(LSTM)与门限循环单元(GRU)网络的差别,以下哪个说法是错误的? A: GRU是LSTM的简化,保留量遗忘门,合并了状态向量和输出向量 B: GRU的性能一般远强于LSTM C: GRU的计算速度优于对应的LSTM D: GRU的结构比LSTM简单,减少了计算量
- 关于LSTM、GRU,下列说法错误的是? A: LSTM中Ct表示长期记忆; B: LSTM中ht表示短期记忆; C: GRU中ht表示短期记忆; D: GRU中有两个门,LSTM有三个门;
- LSTM和GRU是两种通过引入( A )结构来减弱普通RNN短期记忆影响的演化变体,其中,LSTM中引入了( )结构。 A: 门 B: 遗忘门 C: 输入门 D: 输出门
- LSTM和GRU网络因为引入了门控单元,可以缓解梯度消失问题
内容
- 0
GRU相比于LSTM要复杂一些。
- 1
LSTM和GRU网络因为引入了门控单元,可以缓解梯度消失问题 A: 正确 B: 错误
- 2
LSTM 和 GRU 主要利用“门控”来缓解梯度消失的问题
- 3
优化p38_rnn_stock.py代码中神经网络结构(可使用RNN/LSTM/GRU),训练结束后显示的测试集平均绝对误差小于等于70。
- 4
LSTM中隐藏层的基本单元是记忆块,它取代了传统RNN中的隐藏层单元。一个记忆块包含了一个甚至多个记忆单元和三个乘法单元输入。以下不属于三个乘法单元输入的是 A: 输入门 B: 输出门 C: 遗忘门 D: 记忆门