• 2022-07-27
    在对于LSTM的变体GRU中,将LSTM中的记忆单元和神经元隐藏状态进行了合并。()
  • 内容

    • 0

      GRU相比于LSTM要复杂一些。

    • 1

      LSTM和GRU网络因为引入了门控单元,可以缓解梯度消失问题 A: 正确 B: 错误

    • 2

      LSTM 和 GRU 主要利用“门控”来缓解梯度消失的问题

    • 3

      优化p38_rnn_stock.py代码中神经网络结构(可使用RNN/LSTM/GRU),训练结束后显示的测试集平均绝对误差小于等于70。

    • 4

      LSTM中隐藏层的基本单元是记忆块,它取代了传统RNN中的隐藏层单元。一个记忆块包含了一个甚至多个记忆单元和三个乘法单元输入。以下不属于三个乘法单元输入的是 A: 输入门 B: 输出门 C: 遗忘门 D: 记忆门