A.计算简单
B.非线性
C.具有饱和区
D.几乎处处可微
第1题
A.用 Sigmoid 激活函数时,如果权重初始化较大或较小时,容易出现梯度饱和梯度消失,可选用 Tanh 函数改进
B.批规范化是在不引入新参数的情况下保证每一层网络的输入具有相同的分布
C.与 Sigmoid 函数相比,Relu较不容易使网络产生梯度消失
D.梯度下降法实现简单,当目标函数是凸函数时,可基于二阶收敛快速到达目标值
第2题
A.激活函数都是非线性函数
B.激活函数大多数是非线性函数,少数是线性函数
C.激活函数都是线性函数
D.激活函数部分是非线性函数,部分是线性函数
第7题
A.神经元节点先计算激活函数,再计算线性函数(z=Wx+b)
B.神经元节点先计算线性函数(z=Wx+b),再计算激活
C.神经元节点计算函数g,函数g计算(Wx+b)
D.在将输出应用于激活函数之前,神经元节点计算所有特征的平均值
第9题
A.属性是客观实体所具有的性质的抽象
B.属性,就是类中所定义的数据
C.方法是用于调用对象以外的函数
D.方法,就是对象所能执行的操作
为了保护您的账号安全,请在“上学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!