A我们必须在使用PCA前规范化数据
B我们应该选择使得模型有最大variance的主成分
C我们应该选择使得模型有最小variance的主成分
D我们可以使用PCA在低纬度上做数据可视化
第1题
A.Var1和Var2是非常相关的
B.因为Var和Var2是非常相关的,我们可以去除其中一个
C.Var3和Var1的1.23相关系数是不可能的
第2题
A.我们可以先创建聚类类别,然后在每个类别上用监督学习分别进行学习
B.我们可以使用聚类“类别id”作为一个新的特征项,然后再用监督学习分别进行学习
C.在进行监督学习之前,我们不能新建聚类类别
D.我们不可以使用聚类“类别id”作为一个新的特征项,然后再用监督学习分别进行学习
第3题
A.当增加最小样本分裂个数,我们可以抵制过拟合
B.当增加最小样本分裂个数,会导致过拟合
C.当我们减少训练单个学习器的样本个数,我们可以降低variance
D.当我们减少训练单个学习器的样本个数,我们可以降低bias
第4题
A.模型分类的召回率会降低或不变
B.模型分类的召回率会升高
C.模型分类准确率会升高或不变
D.模型分类准确率会降低
第6题
A.学习率(learningrate)太低
B.正则参数太高
C.陷入局部最小值
D.以上都有可能
第7题
A.把除了最后一层外所有的层都冻住,重新训练最后一层
B.对新数据重新训练整个模型
C.只对最后几层进行调参(finetune)
D.对每一层模型进行评估,选择其中的少数来用
第8题
A.其他选项都不对
B.没啥问题,神经网络会正常开始训练
C.神经网络可以训练,但是所有的神经元最后都会变成识别同样的东西
D.神经网络不会开始训练,因为没有梯度改变
第9题
A.在将所有的输入传递到下一层之前对其进行归一化(更改)
B.它将权重的归一化平均值和标准差
C.它是一种非常有效的反向传播(BP)方法
D.这些均不是
第10题
A.AdaGrad和L-BFGS使用的都是一阶差分
B.AdaGrad和L-BFGS使用的都是二阶差分
C.Adagrad使用的是一阶差分,L-BFGS使用的是二阶差分
D.Adagrad使用的是二阶差分,L-BFGS使用的是一阶差分
为了保护您的账号安全,请在“上学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!