我们想在大数据集上训练决策树,为了使用较少时间,我们可以()
A. 增加树的深度
B. 增加学习率(learnin grate)
C. 减少树的深度
D. 减少树的数量
查看答案
对于信息增益,决策树分裂节点,下面说法正确的是()
1.纯度高的节点需要更多的信息去区分
2.信息增益可以用”1比特-熵”获得
3.如果选择一个属性具有许多归类值,那么这个信息增益是有偏差的
A. 1
B. 2
C. 2和3
D. 所有以上
回归模型中存在多重共线性,你如何解决这个问题()
1.去除这两个共线性变量
2.我们可以先去除一个共线性变量
3.计算VIF(方差膨胀因子),采取相应措施
4.为了避免损失信息,我们可以使用一些正则化方法,比如,岭回归和lasso回归
A. 1
B. 2
C. 2和3
D. 2,3和4
训练决策树模型,属性节点的分裂,具有最大信息增益的图是下图的哪一个()
A. Outlook
B. Humidity
C. Windy
D. Temperature
对于k折交叉验证,以下对k的说法正确的是()
A. k越大,不一定越好,选择大的k会加大评估时间
B. 选择更大的k,就会有更小的bias(因为训练集更加接近总数据集)
C. 在选择k时,要最小化数据集之间的方差
D. 以上所有