对应GradientBoostingtree算法,以下说法正确的是()
1.当增加最小样本分裂个数,我们可以抵制过拟合
2.当增加最小样本分裂个数,会导致过拟合
3.当我们减少训练单个学习器的样本个数,我们可以降低variance
4.当我们减少训练单个学习器的样本个数,我们可以降低bias
A. 2和4
B. 2和3
C. 1和3
D. 1和4
在有监督学习中,我们如何使用聚类方法()
1.我们可以先创建聚类类别,然后在每个类别上用监督学习分别进行学习
2.我们可以使用聚类“类别id”作为一个新的特征项,然后再用监督学习分别进行学习
3.在进行监督学习之前,我们不能新建聚类类别
4.我们不可以使用聚类“类别id”作为一个新的特征项,然后再用监督学习分别进行学习
A. 2和4
B. 1和2
C. 3和4
D. 1和3
以下说法正确的是()
1.一个机器学习模型,如果有较高准确率,总是说明这个分类器是好的
2.如果增加模型复杂度,那么模型的测试错误率总是会降低
3.如果增加模型复杂度,那么模型的训练错误率总是会降低
4.我们不可以使用聚类“类别id”作为一个新的特征项,然后再用监督学习分别进行学习
A. 1
B. 2
C. 3
D. 1and3
对于PCA(主成分分析)转化过的特征,朴素贝叶斯的”不依赖假设”总是成立,因为所有主要成分是正交的,这个说法是()
A. 正确的
B. 错误的