题目内容

对于随机森林和GradientBoostingTrees,下面说法正确的是()
1.在随机森林的单个树中,树和树之间是有依赖的,而GradientBoostingTrees中的单个树之间是没有依赖的.
2.这两个模型都使用随机特征子集,来生成许多单个的树
3.我们可以并行地生成GradientBoostingTrees单个树,因为它们之间是没有依赖的,GradientBoostingTrees训练模型的表现总是比随机森林好

A. 2
B. 1and2
C. 1,3and4
D. 2and4

查看答案
更多问题

对于下图,最好的主成分选择是多少()

A. 7
B. 30
C. 35
D. Can’tSay

对于PCA说法正确的是()
1.我们必须在使用PCA前规范化数据
2.我们应该选择使得模型有最大variance的主成分
3.我们应该选择使得模型有最小variance的主成分
4.我们可以使用PCA在低维度上做数据可视化

A. 1,2and4
B. 2and4
C. 3and4
D. 1and3
E. 1,3and4

我们建立一个5000个特征,100万数据的机器学习模型.我们怎么有效地应对这样的大数据训练()

A. 我们随机抽取一些样本,在这些少量样本之上训练
B. 我们可以试用在线机器学习算法
C. 我们应用PCA算法降维,减少特征数
D. B和C
E. A和B
F. 以上所有

我们想要减少数据集中的特征数,即降维.选择以下适合的方案()
1.使用前向特征选择方法
2.使用后向特征排除方法
3.我们先把所有特征都使用,去训练一个模型,得到测试集上的表现.然后我们去掉一个特征,再去训练,用交叉验证看看测试集上的表现.如果表现比原来还要好,我们可以去除这个特征.
4.查看相关性表,去除相关性最高的一些特征

A. 1和2
B. 2,3和4
C. 1,2和4
D. All

答案查题题库