题目内容

XGBoost算法说法错误的是 ( )

A. XGBoost算法的目标函数采用了二阶泰勒展开
B. XGBoost算法的速度要比GBDT快
C. XGBoost算法要求对数据进行归一化或者标准化
D. XGBoost算法的效果通常优于传统的机器学习模型

查看答案
更多问题

关于Bagging方法,以下说法错误的是( )

A. 对各弱分类器的训练可以通过并行方式完成
B. 最终分类结果是由各弱分类器以一定的方式投票决定的
C. 由于各分类器是独立的,弱分类器的训练数据也是相互独立的
D. 对各弱分类器的训练可以通过串行方式进行

Adboost的优点不包括( )

A. 分类精度高
B. 对异常点敏感,异常点会获得较高权重
C. 可以用各种回归分类模型来构建弱学习器,非常灵活
D. 不容易发生过拟合

LightGBM与XGBoost相比,主要的优势不包括( )

A. 更快的训练速度
B. 更低的内存消耗
C. 更好的准确率
D. 采用二阶泰勒展开加快收敛

随机森林和GBDT的描述不正确的是( )

A. 两者都是由多棵树组成,最终的结果都是由多棵树一起决定
B. 两者都是使用了Boosting思想
C. 随机森林最终是多棵树进行多数表决(回归问题是取平均),而GBDT是加权融合
D. 随机森林每次迭代的样本是从全部训练集中有放回抽样形成的,而GBDT每次使用全部样本

答案查题题库