对应GradientBoostingtree算法,以下说法正确的是()
1.当增加最小样本分裂个数,我们可以抵制过拟合
2.当增加最小样本分裂个数,会导致过拟合
3.当我们减少训练单个学习器的样本个数,我们可以降低variance
4.当我们减少训练单个学习器的样本个数,我们可以降低bias
A. 2和4
B. 2和3
C. 1和3
D. 1和4
查看答案
在有监督学习中,我们如何使用聚类方法()
1.我们可以先创建聚类类别,然后在每个类别上用监督学习分别进行学习
2.我们可以使用聚类“类别id”作为一个新的特征项,然后再用监督学习分别进行学习
3.在进行监督学习之前,我们不能新建聚类类别
4.我们不可以使用聚类“类别id”作为一个新的特征项,然后再用监督学习分别进行学习
A. 2和4
B. 1和2
C. 3和4
D. 1和3
以下说法正确的是()
1.一个机器学习模型,如果有较高准确率,总是说明这个分类器是好的
2.如果增加模型复杂度,那么模型的测试错误率总是会降低
3.如果增加模型复杂度,那么模型的训练错误率总是会降低
4.我们不可以使用聚类“类别id”作为一个新的特征项,然后再用监督学习分别进行学习
A. 1
B. 2
C. 3
D. 1and3
对于PCA(主成分分析)转化过的特征,朴素贝叶斯的”不依赖假设”总是成立,因为所有主要成分是正交的,这个说法是()
A. 正确的
B. 错误的
对于随机森林和GradientBoostingTrees,下面说法正确的是()
1.在随机森林的单个树中,树和树之间是有依赖的,而GradientBoostingTrees中的单个树之间是没有依赖的.
2.这两个模型都使用随机特征子集,来生成许多单个的树
3.我们可以并行地生成GradientBoostingTrees单个树,因为它们之间是没有依赖的,GradientBoostingTrees训练模型的表现总是比随机森林好
A. 2
B. 1and2
C. 1,3and4
D. 2and4