A. 不低于70% B. 高于70% C. 低于70% D. 以上结果不正确
A. 70% B. 90% C. 80% D. 100%
A. 选择相同的模型,不同的超参数 B. 选择不同的模型,不同的超参数 C. 基模型来自不同的训练空间 D. 超参数对模型没有影响
A. 随机森林算法 B. 梯度提升树算法 C. XGBOOST D. 线性回归
A. 分类问题 B. 预测问题 C. 时序问题 D. 以上结果都不正确
A. 集成方法只适用于有监督学习 B. 集成方法不一定比单个模型的预测性能要好 C. 使用集成方法组合基模型,必须进行超参数调参,从而提升模型的性能 D. Bagging方法可以减少过度拟合现象出现
A. 基模型方差大,不容易出现过度拟合现象 B. 基模型偏差小,容易出现过度拟合现象 C. 基模型方差大,容易出现过度拟合现象 D. 基模型偏差小,不容易出现过度拟合现象
A. 多数投票方法 B. 平均方法 C. 加权平均方法 D. 随机抽样方法
A. 集成方法中的基模型之间具有差异性 B. 集成方法通常能获得比单个模型更好的预测性能 C. 与单个模型相比,集成方法能够降低偏差 D. 集成方法能够增强单个模型的表达能力
A. 随机森林中决策树的个数 B. 随机森林中各个决策树输入的特征 C. 随机森林中训练各个决策树的样本 D. 以上说法都不正确