A.A
B.D
C.C
D.B
E.以上都有
第1题
A.学习率(learningrate)太低
B.正则参数太高
C.陷入局部最小值
D.以上都有可能
第2题
A.把除了最后一层外所有的层都冻住,重新训练最后一层
B.对新数据重新训练整个模型
C.只对最后几层进行调参(finetune)
D.对每一层模型进行评估,选择其中的少数来用
第3题
A.其他选项都不对
B.没啥问题,神经网络会正常开始训练
C.神经网络可以训练,但是所有的神经元最后都会变成识别同样的东西
D.神经网络不会开始训练,因为没有梯度改变
第4题
A.在将所有的输入传递到下一层之前对其进行归一化(更改)
B.它将权重的归一化平均值和标准差
C.它是一种非常有效的反向传播(BP)方法
D.这些均不是
第5题
A.AdaGrad和L-BFGS使用的都是一阶差分
B.AdaGrad和L-BFGS使用的都是二阶差分
C.Adagrad使用的是一阶差分,L-BFGS使用的是二阶差分
D.Adagrad使用的是二阶差分,L-BFGS使用的是一阶差分
第8题
A在随机森林的单个树中,树和树之间是有依赖的,而GradientBoostingTrees中的单个树之间是没有依赖的.
B这两个模型都使用随机特征子集,来生成许多单个的树.
C我们可以并行地生成GradientBoostingTrees单个树,因为它们之间是没有依赖的,GradientBoostingTrees训练模型的表现总是比随机森林好
第9题
A增加神经网络层数,可能会增加测试数据集的分类错误率
B减少神经网络层数,总是能减小测试数据集的分类错误率
C增加神经网络层数,总是能减小训练数据集的分类错误率
为了保护您的账号安全,请在“上学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!