A.LSTM中通过引入输入门、遗忘门、输出门解决了RNN中存在的梯度消失和梯度爆炸
B.LSTM中门的开关程度是由信息的权重决定的,即训练过程中记住重要信息
C.与RNN相比,LSTM中引入更多参数,所以其训练周期更久
D.LSTM中使用Sigmoid实现门限控制,而用TanH实现数据处理
第2题
A、既然有了长期状态c,就不再需要隐藏状态h了
B、长期状态c和隐藏状态h都需要被用到
C、在计算当前时刻的输出时,直接利用到的是隐藏状态h
D、在计算当前时刻的输出时,直接利用到的是长期状态c
第3题
A、控制当前时刻新输入信息的接受程度
B、负责协调与遗忘们的关系
C、负责协调与输出门的关系
D、计算当前时刻网络输入产生的新信息
第5题
A、GRU是LSTM的简化,保留量遗忘门,合并了状态向量和输出向量
B、GRU的性能一般远强于LSTM
C、GRU的计算速度优于对应的LSTM
D、GRU的结构比LSTM简单,减少了计算量
第9题
A、使用Sigmoid函数控制上一时刻的状态向量对当前时刻的影响
B、提高训练速度
C、增加当前时刻输入的影响
D、控制上一时刻隐层的输出影响
第10题
A、循环神经网络的反向传播过程包括沿时间轴的传播
B、双向循环神经网络可以从过去的时间点获取记忆,也可以从未来的时间点获取信息
C、循环神经网络的结构不包括一对一的结构
D、循环神经网络的隐藏层会接受上个隐藏层的输出作为输入
为了保护您的账号安全,请在“上学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!