题目内容

我们想在大数据集上训练决策树,为了使用较少时间,我们可以()

A. 增加树的深度
B. 增加学习率(learnin grate)
C. 减少树的深度
D. 减少树的数量

查看答案
更多问题

对于信息增益,决策树分裂节点,下面说法正确的是()
1.纯度高的节点需要更多的信息去区分
2.信息增益可以用”1比特-熵”获得
3.如果选择一个属性具有许多归类值,那么这个信息增益是有偏差的

A. 1
B. 2
C. 2和3
D. 所有以上

回归模型中存在多重共线性,你如何解决这个问题()
1.去除这两个共线性变量
2.我们可以先去除一个共线性变量
3.计算VIF(方差膨胀因子),采取相应措施
4.为了避免损失信息,我们可以使用一些正则化方法,比如,岭回归和lasso回归

A. 1
B. 2
C. 2和3
D. 2,3和4

训练决策树模型,属性节点的分裂,具有最大信息增益的图是下图的哪一个()

A. Outlook
B. Humidity
C. Windy
D. Temperature

对于k折交叉验证,以下对k的说法正确的是()

A. k越大,不一定越好,选择大的k会加大评估时间
B. 选择更大的k,就会有更小的bias(因为训练集更加接近总数据集)
C. 在选择k时,要最小化数据集之间的方差
D. 以上所有

答案查题题库