• 2022-07-27
    在对于LSTM的变体GRU中,对于LSTM进行了如下更新:将LSTM中的输出门与遗忘门合并为更新门。()
  • 内容

    • 0

      比较长短期记忆网络(LSTM)与门限循环单元(GRU)网络的差别,以下哪个说法是错误的? A: GRU是LSTM的简化,保留量遗忘门,合并了状态向量和输出向量 B: GRU的性能一般远强于LSTM C: GRU的计算速度优于对应的LSTM D: GRU的结构比LSTM简单,减少了计算量

    • 1

      在LSTM中,用于更新单元状态的门结构是( ) A: 其余都是 B: 输入门 C: 更新门 D: 遗忘门

    • 2

      LSTM中的门控机制中,包含() A: 输入门 B: 记忆门 C: 遗忘门 D: 输出门

    • 3

      在LSTM中,决定丢弃或者保留哪些信息的门结构是( ) A: 更新门 B: 状态单元 C: 重置门 D: 遗忘门

    • 4

      下列关于LSTM说法正确的是 A: LSTM用三个控制门记忆长期状态 B: 忘记门控制保存之前的长期状态 C: 输入门控制更新长期状态 D: 输出门控制是否把长期状态作为当前的LSTM的输出