XGBoost对损失函数做了二阶泰勒展开,GBDT只用了一阶导数信息,并且XGBoost还支持自定义损失函数,只要损失函数一阶、二阶可导。( )
查看答案
集成学习的数据不需要归一化或者标准化。
A. 对
B. 错
LightGBM在建树过程中,采用基于最大深度的 Leaf-wise 的垂直生长算法。
A. 对
B. 错
随机森林和GBDT都是使用了Bagging思想。
A. 对
B. 错
SVM是这样一个分类器,他寻找具有最小边缘的超平面,因此它也经常被称为最小间隔分类器(minimal margin classifier) 。
A. 对
B. 错