关于Bagging方法,以下说法错误的是( )
A. 对各弱分类器的训练可以通过并行方式完成
B. 最终分类结果是由各弱分类器以一定的方式投票决定的
C. 由于各分类器是独立的,弱分类器的训练数据也是相互独立的
D. 对各弱分类器的训练可以通过串行方式进行
Adboost的优点不包括( )
A. 分类精度高
B. 对异常点敏感,异常点会获得较高权重
C. 可以用各种回归分类模型来构建弱学习器,非常灵活
D. 不容易发生过拟合
LightGBM与XGBoost相比,主要的优势不包括( )
A. 更快的训练速度
B. 更低的内存消耗
C. 更好的准确率
D. 采用二阶泰勒展开加快收敛
随机森林和GBDT的描述不正确的是( )
A. 两者都是由多棵树组成,最终的结果都是由多棵树一起决定
B. 两者都是使用了Boosting思想
C. 随机森林最终是多棵树进行多数表决(回归问题是取平均),而GBDT是加权融合
D. 随机森林每次迭代的样本是从全部训练集中有放回抽样形成的,而GBDT每次使用全部样本