在有监督学习中,我们如何使用聚类方法()
1.我们可以先创建聚类类别,然后在每个类别上用监督学习分别进行学习
2.我们可以使用聚类“类别id”作为一个新的特征项,然后再用监督学习分别进行学习
3.在进行监督学习之前,我们不能新建聚类类别
4.我们不可以使用聚类“类别id”作为一个新的特征项,然后再用监督学习分别进行学习
A. 2和4
B. 1和2
C. 3和4
D. 1和3
查看答案
以下说法正确的是()
1.一个机器学习模型,如果有较高准确率,总是说明这个分类器是好的
2.如果增加模型复杂度,那么模型的测试错误率总是会降低
3.如果增加模型复杂度,那么模型的训练错误率总是会降低
4.我们不可以使用聚类“类别id”作为一个新的特征项,然后再用监督学习分别进行学习
A. 1
B. 2
C. 3
D. 1and3
对于PCA(主成分分析)转化过的特征,朴素贝叶斯的”不依赖假设”总是成立,因为所有主要成分是正交的,这个说法是()
A. 正确的
B. 错误的
对于随机森林和GradientBoostingTrees,下面说法正确的是()
1.在随机森林的单个树中,树和树之间是有依赖的,而GradientBoostingTrees中的单个树之间是没有依赖的.
2.这两个模型都使用随机特征子集,来生成许多单个的树
3.我们可以并行地生成GradientBoostingTrees单个树,因为它们之间是没有依赖的,GradientBoostingTrees训练模型的表现总是比随机森林好
A. 2
B. 1and2
C. 1,3and4
D. 2and4
对于下图,最好的主成分选择是多少()
A. 7
B. 30
C. 35
D. Can’tSay