AdaBoost使用的损失函数是指数函数 B. 在训练过程中,若某个样本点已经被准确分类,则在构造下一个训练集时,该样本的权重会下降 C. 在投票时,分类误差小的弱分类器权重较小 D. 以上说法都不对
A. GBDT是由多棵回归树组成 B. GBDT泛化能力较强 C. GBDT使用的是放回采样 D. GBDT需要使用剪枝操作
A. XGBoost算法的目标函数采用了二阶泰勒展开 B. XGBoost算法的速度要比GBDT快 C. XGBoost算法要求对数据进行归一化或者标准化 D. XGBoost算法的效果通常优于传统的机器学习模型
A. 对各弱分类器的训练可以通过并行方式完成 B. 最终分类结果是由各弱分类器以一定的方式投票决定的 C. 由于各分类器是独立的,弱分类器的训练数据也是相互独立的 D. 对各弱分类器的训练可以通过串行方式进行
A. 分类精度高 B. 对异常点敏感,异常点会获得较高权重 C. 可以用各种回归分类模型来构建弱学习器,非常灵活 D. 不容易发生过拟合