B.使用后向特征排除方法
C.我们先把所有特征都使用,去训练一个模型,得到测试集上的表现.然后我们去掉一个特征,再去训练,用交叉验证看看测试集上的表现.如果表现比原来还要好,我们可以去除这个特征.
D.查看相关性表,去除相关性最高的一些特征
第1题
A.纯度高的节点需要更多的信息去区分
B.信息增益可以用”1比特-熵”获得
C.如果选择一个属性具有许多归类值,那么这个信息增益是有偏差的
第4题
A准确度并不适合衡量不平衡类别问题
B准确度适合衡量不平衡类别问题
C精确度和召回率适合于衡量不平衡类别问题
D精确度和召回率不适合衡量不平衡类别问题
第5题
ASVM是这样一个分类器,他寻找具有最小边缘的超平面,因此它也经常被称为最小边缘分类器(minimalmarginclassifier)
B在聚类分析中,簇内的相似性越大,簇间的差别越大,聚类的效果越好
C在决策树中,随着树中节点变得太大,即使模型的训练误差还在继续减低,但是检验误差开始增大,这是出现了模型拟合不足的问题
D聚类分析可以看做是一种非监督的分类
第6题
A我们必须在使用PCA前规范化数据
B我们应该选择使得模型有最大variance的主成分
C我们应该选择使得模型有最小variance的主成分
D我们可以使用PCA在低纬度上做数据可视化
第7题
A.Var1和Var2是非常相关的
B.因为Var和Var2是非常相关的,我们可以去除其中一个
C.Var3和Var1的1.23相关系数是不可能的
第8题
A.我们可以先创建聚类类别,然后在每个类别上用监督学习分别进行学习
B.我们可以使用聚类“类别id”作为一个新的特征项,然后再用监督学习分别进行学习
C.在进行监督学习之前,我们不能新建聚类类别
D.我们不可以使用聚类“类别id”作为一个新的特征项,然后再用监督学习分别进行学习
第9题
A.当增加最小样本分裂个数,我们可以抵制过拟合
B.当增加最小样本分裂个数,会导致过拟合
C.当我们减少训练单个学习器的样本个数,我们可以降低variance
D.当我们减少训练单个学习器的样本个数,我们可以降低bias
第10题
A.模型分类的召回率会降低或不变
B.模型分类的召回率会升高
C.模型分类准确率会升高或不变
D.模型分类准确率会降低
为了保护您的账号安全,请在“上学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!