A.模型梯度快速变大
B.模型权重变为NaN值
C.每个节点和层的误差梯度值持续超多1.0
D.损失函数持续减小
第1题:
4、通常有哪几种训练神经网络的优化方法?
A.梯度下降法
B.随机梯度下降法
C.小批量随机梯度下降法
D.集成法
第2题:
下列关于循环神经网络的说法哪个是错误的___
A.普通RNN容易出现梯度消失问题
B.普通RNN容易出现梯度爆炸问题
C.LSTM网络结构相对普通RNN网络解决了梯度爆炸问题,但没有很好解决梯度消失问题
D.循环神经网络RNN和LSTM等模型,则因为其模型结构特点可以更好地应用于时序相关的问题场景
第3题:
BP神经网络在训练过程中,损失函数可能比较大,但随着训练的进行,损失函数基本不变化了,这种现象说明神经网络陷入全局最优解
第4题:
下面关于长短期记忆神经网络LSTM的描述中,正确的说法是哪些?
A.LSTM中通过引入输入门、遗忘门、输出门解决了RNN中存在的梯度消失和梯度爆炸
B.LSTM中门的开关程度是由信息的权重决定的,即训练过程中记住重要信息
C.与RNN相比,LSTM中引入更多参数,所以其训练周期更久
D.LSTM中使用Sigmoid实现门限控制,而用TanH实现数据处理
第5题:
下面关于BP神经网络的训练的说法中,正确的说法是哪个?
A.BP神经网络的训练过程中,先进行后向传播再进行前向传播
B.通过损失函数对后向传播结果进行判定
C.通过前向传播过程对权重参数进行修正
D.训练过程中权值参数的运算量很大,一般采用梯度下降法