题目内容

对于信息增益,决策树分裂节点,下面说法正确的是()
1.纯度高的节点需要更多的信息去区分
2.信息增益可以用”1比特-熵”获得
3.如果选择一个属性具有许多归类值,那么这个信息增益是有偏差的

A. 1
B. 2
C. 2和3
D. 所有以上

查看答案
更多问题

回归模型中存在多重共线性,你如何解决这个问题()
1.去除这两个共线性变量
2.我们可以先去除一个共线性变量
3.计算VIF(方差膨胀因子),采取相应措施
4.为了避免损失信息,我们可以使用一些正则化方法,比如,岭回归和lasso回归

A. 1
B. 2
C. 2和3
D. 2,3和4

训练决策树模型,属性节点的分裂,具有最大信息增益的图是下图的哪一个()

A. Outlook
B. Humidity
C. Windy
D. Temperature

对于k折交叉验证,以下对k的说法正确的是()

A. k越大,不一定越好,选择大的k会加大评估时间
B. 选择更大的k,就会有更小的bias(因为训练集更加接近总数据集)
C. 在选择k时,要最小化数据集之间的方差
D. 以上所有

对数几率回归(logisticsre gression)和一般回归分析有什么区别()

A. 对数几率回归是设计用来预测事件可能性的
B. 对数几率回归可以用来度量模型拟合程度
C. 对数几率回归可以用来估计回归系数
D. 以上所有

答案查题题库