A.当神经网络的隐层增加时,就容易发生梯度消失问题,表现在靠近输入层的权重难以更新。
B.网络梯度消失可能导致有些权重难以更新,导致网路训练失败。
C.网络梯度消失可以通过改变隐层和输出层的神经元激活函数减弱。
D.网络梯度消失可以通过减少隐层神经元的个数减弱。
第1题
A、取Tanh或Sigmoid函数作为激活函数,做梯度下降时,偏导数是一堆小数在做乘法,容易导致网络梯度消失。
B、Tanh函数相对于Sigmoid函数来说梯度较小,收敛速度更快更慢
C、Sigmoid函数相对于Tanh函数来说更容易导致梯度消失
D、ReLU可以减少循环神经网络的梯度消失问题
第2题
A、这是由网络训练时反向传播时梯度消失引起的
B、这会导致输入的长句词汇之间的语义关系很难拟合
C、这会引发RNN的输入和输出的关系难以拟合
D、可以使得网络记忆更多的训练样本信息
第3题
A、在选择神经网络的层数时,隐藏层的层数应该是越少越好。
B、神经网络的模型受到神经元的传递函数、网络结构和连接权值的学习这三个因素的影响。
C、在多层前馈网络中,若隐层节点数量太少,会出现欠学习的问题。
D、在多层前馈网络中,若隐层节点数量太少,会出现过学习的问题。
第4题
A、神经网络神经元的输出都是传给其他神经元,不能再反馈回来。
B、神经网络的训练主要是针对神经元之间的权重和神经元的偏置进行一定的调整,使得代价函数极小化。
C、神经网络不同层次的神经元可以使用不同的激活函数。
D、均方差损失函数是神经网络常用的一种代价函数(损失函数)。
第5题
A、BP网络是是一种按误差反向传播算法训练的多层前馈网络。
B、BP算法由数据流的前向计算(正向传播)和误差信号的反向传播两个过程构成。
C、在BP算法中数据流的正向传播时,数据的传播方向是输入层→隐层→输出层。
D、在BP算法中数据的正向传播和误差的反向传播是同时进行的。
第6题
A、神经网络权重的初始化大小会对网络的训练结果影响。
B、使用增加训练次数的方法不一定可以减少代价函数的取值。
C、对神经网络训练的优化需要综合考虑激活函数、网络结构、权重更新方法等多种因素。
D、分析问题确定后,神经网络合适的结构就可以确定。
第7题
A、卷积核的高和宽不一定是相等的,且一般大小取奇数
B、在特征图padding时,各方向的填充像素数不一定相同(不对称填充),也不一定补0
C、在卷积神经网络中,卷积和池化的作用主要是分类,全连接层的作用主要是特征获取
D、卷积神经网络的输出层不一定用全连接网络,也可能得到比较好的性能
第8题
A、RNN:语音识别、问答系统、语言建模和文本生成等诸多领域
B、GAN:图像合成、语义图像编辑、风格迁移、图像超分辨率技术和分类
C、VAE:从生成假人脸到合成音乐等
D、LSTM:捕捉到序列中长距离历史信息,但不能缓解长期依赖问题,应使用RNN实现有效缓解长期依赖
第10题
A、卷积核越大越好。
B、不同卷积层或同一卷积层只能用一种大小的卷积核。
C、在卷积层之前使用池化操作,可以减少卷积层参数量。
D、类似AlexNet网络使用的分组卷积可以增加卷积层的参数量。
为了保护您的账号安全,请在“上学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!