A.激活函数是神经元的输入和输出映射函数。
B.激活函数会影响神经网络的训练过程,因此会影响神经网络模型的质量。
C.在修正权重的过程中,靠近多层神经网络输出层的神经元的权重修改一般比较小,容易出现梯度消失。
D.当神经元的输入比较大时,Sigmoid函数的偏导数比较小,因此容易产生梯度饱和。
第1题
A、取Tanh或Sigmoid函数作为激活函数,做梯度下降时,偏导数是一堆小数在做乘法,容易导致网络梯度消失。
B、Tanh函数相对于Sigmoid函数来说梯度较小,收敛速度更快更慢
C、Sigmoid函数相对于Tanh函数来说更容易导致梯度消失
D、ReLU可以减少循环神经网络的梯度消失问题
第2题
A、隐含层或输出层具有激活函数。
B、输入层没有激活函数。
C、同一神经网络的激活函数必须是相同的。
D、同一神经网络的隐含层和输出层的激活函数可以不同。
第3题
A、Update和LateUpdate都是每帧执行一次,且Update先于LateUpdate执行
B、Awake先于Start执行
C、FixedUpdate是按照固定频率每秒执行若干次
D、在游戏对象未激活状态下不会执行Awake事件函数
第4题
A、两种激活函数的作用是相似的
B、Sigmoid函数决定什么值将要更新
C、Tanh函数对输入进行加工确定新的输出
D、两种激活函数共同确定有多少新信息可以流转下去
第5题
A、当神经网络的隐层增加时,就容易发生梯度消失问题,表现在靠近输入层的权重难以更新。
B、网络梯度消失可能导致有些权重难以更新,导致网路训练失败。
C、网络梯度消失可以通过改变隐层和输出层的神经元激活函数减弱。
D、网络梯度消失可以通过减少隐层神经元的个数减弱。
第6题
A、神经网络权重的初始化大小会对网络的训练结果影响。
B、使用增加训练次数的方法不一定可以减少代价函数的取值。
C、对神经网络训练的优化需要综合考虑激活函数、网络结构、权重更新方法等多种因素。
D、分析问题确定后,神经网络合适的结构就可以确定。
第7题
A、在使用梯度下降时,加上冲量项会减少训练的速度,但可能会减少陷入局部极小值的可能
B、与批量梯度下降法相比,使用小批量梯度下降法可以提高训练速度,但达到全局最优解可能需要更多的迭代次数
C、交叉熵也可以作为回归预测问题的损失函数
D、神经元的激活函数选择影响神经网络的训练过程和最终性能
第8题
A、与Sigmoid函数相比,Relu较不容易使网络产生梯度消失
B、用Sigmoid激活函数时,如果权重初始化较大时,容易出现梯度消失,Tanh函数可以大为改进
C、批标准化(batch normalization)使每一和隐层的输入具有相同的分布
D、当目标函数是凸函数时,梯度下降法实现简单,可到达最大目标值
第9题
A、感知器模型的激活函数可导,可以通过梯度下降求解损失函数最小值
B、损失函数用于衡量当前权重在整个数据集上的总误差
C、标准神经元每个输入端具有不同的权重
D、Sigmoid函数是连续可导的,同时具有“两极分化”的特点
第10题
A、在输入端,神经元只接受来自一个信号源的输入信息
B、感知器的信号处理分为四个部分:输入、汇总、激活、输出
C、输入为实例的特征向量,由激活函数计算输出,输出为1、-1两个值
D、汇总后的输入信号如果高于阈值,则产生“激活”信号,否则仍基本维持原有水平
为了保护您的账号安全,请在“上学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!