• 2022-06-08 问题

    比较长短期记忆网络(LSTM)与门限循环单元(GRU)网络的差别,以下哪个说法是错误的? A: GRU是LSTM的简化,保留量遗忘门,合并了状态向量和输出向量 B: GRU的性能一般远强于LSTM C: GRU的计算速度优于对应的LSTM D: GRU的结构比LSTM简单,减少了计算量

    比较长短期记忆网络(LSTM)与门限循环单元(GRU)网络的差别,以下哪个说法是错误的? A: GRU是LSTM的简化,保留量遗忘门,合并了状态向量和输出向量 B: GRU的性能一般远强于LSTM C: GRU的计算速度优于对应的LSTM D: GRU的结构比LSTM简单,减少了计算量

  • 2022-07-27 问题

    GRU相比于LSTM要复杂一些。

    GRU相比于LSTM要复杂一些。

  • 2022-07-27 问题

    关于LSTM、GRU,下列说法错误的是? A: LSTM中Ct表示长期记忆; B: LSTM中ht表示短期记忆; C: GRU中ht表示短期记忆; D: GRU中有两个门,LSTM有三个门;

    关于LSTM、GRU,下列说法错误的是? A: LSTM中Ct表示长期记忆; B: LSTM中ht表示短期记忆; C: GRU中ht表示短期记忆; D: GRU中有两个门,LSTM有三个门;

  • 2022-07-25 问题

    在bash中超级用户的提示符是__________。 A: B: C: gru

    在bash中超级用户的提示符是__________。 A: B: C: gru

  • 2022-07-27 问题

    LSTM 和 GRU 主要利用“门控”来缓解梯度消失的问题

    LSTM 和 GRU 主要利用“门控”来缓解梯度消失的问题

  • 2022-05-26 问题

    以下神经网络属于循环神经网络的是( ) A: GRU B: Inception C: AlexNet D: VGG

    以下神经网络属于循环神经网络的是( ) A: GRU B: Inception C: AlexNet D: VGG

  • 2022-07-27 问题

    LSTM和GRU网络因为引入了门控单元,可以缓解梯度消失问题

    LSTM和GRU网络因为引入了门控单元,可以缓解梯度消失问题

  • 2022-06-12 问题

    The children made a real mess after the party. There were sweet____ everywhere! A: wrappers B: dishes C: cutlery D: gru

    The children made a real mess after the party. There were sweet____ everywhere! A: wrappers B: dishes C: cutlery D: gru

  • 2022-07-27 问题

    LSTM和GRU网络因为引入了门控单元,可以缓解梯度消失问题 A: 正确 B: 错误

    LSTM和GRU网络因为引入了门控单元,可以缓解梯度消失问题 A: 正确 B: 错误

  • 2022-07-27 问题

    在对于LSTM的变体GRU中,将LSTM中的记忆单元和神经元隐藏状态进行了合并。()

    在对于LSTM的变体GRU中,将LSTM中的记忆单元和神经元隐藏状态进行了合并。()

  • 1 2