LSTM 和 GRU 主要利用“门控”来缓解梯度消失的问题
正确
举一反三
- LSTM和GRU网络因为引入了门控单元,可以缓解梯度消失问题
- LSTM和GRU网络因为引入了门控单元,可以缓解梯度消失问题 A: 正确 B: 错误
- LSTM可以缓解RNN梯度消失/梯度爆炸的问题。( )
- 比较长短期记忆网络(LSTM)与门限循环单元(GRU)网络的差别,以下哪个说法是错误的? A: GRU是LSTM的简化,保留量遗忘门,合并了状态向量和输出向量 B: GRU的性能一般远强于LSTM C: GRU的计算速度优于对应的LSTM D: GRU的结构比LSTM简单,减少了计算量
- 关于LSTM、GRU,下列说法错误的是? A: LSTM中Ct表示长期记忆; B: LSTM中ht表示短期记忆; C: GRU中ht表示短期记忆; D: GRU中有两个门,LSTM有三个门;
内容
- 0
LSTM模型和RNN模型都是属于深度学习模型,都可用于情感分析任务中,但是LSTM 模型克服了梯度消失问题。( )
- 1
LSTM可以解决RNN的哪些问题() A: 梯度消失 B: 梯度爆炸 C: 长期依赖 D: 未来信息缺失
- 2
ReLU可以缓解梯度消失的问题。
- 3
RNN在解决序列问题时遇到梯度消失的问题,一般采用的是LSTM进行解决。
- 4
GRU相比于LSTM要复杂一些。