A在随机森林的单个树中,树和树之间是有依赖的,而GradientBoostingTrees中的单个树之间是没有依赖的.
B这两个模型都使用随机特征子集,来生成许多单个的树.
C我们可以并行地生成GradientBoostingTrees单个树,因为它们之间是没有依赖的,GradientBoostingTrees训练模型的表现总是比随机森林好
第1题
A增加神经网络层数,可能会增加测试数据集的分类错误率
B减少神经网络层数,总是能减小测试数据集的分类错误率
C增加神经网络层数,总是能减小训练数据集的分类错误率
第3题
A.有放回地从总共M个特征中抽样m个特征
B.无放回地从总共M个特征中抽样m个特征
C.有放回地从总共N个样本中抽样n个样本
D.无放回地从总共N个样本中抽样n个样本
第4题
A.特征数据归一化加速梯度下降优化的速度
B.特征数据归一化有可能提高模型的精度
C.线性归一化适用于特征数值分化比较大的情况
D.概率模型不需要做归一化处理
第5题
A.ReLU
B.tanh
C.sigmoid
D.其他都不是
第6题
A.增加训练集量
B.减少神经网络隐藏层节点数
C.删除稀疏的特征S
D.SVM算法中使用高斯核/RBF核代替线性核
第7题
A.Logistic回归可用于预测事件发生概率的大小
B.Logistic回归的目标函数是最小化后验概率
C.SVM的目标的结构风险最小化
D.SVM可以有效避免模型过拟合
第8题
A.x=1
B.x=2
C.x=10
D.x=11
第9题
A.request,session
B.applicationsession
C.request,application
D.pageContextrequest
为了保护您的账号安全,请在“上学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!