如果在一个高度非线性并且复杂的一些变量中,一个树模型可能比一般的回归模型效果更好.这是()
查看答案
对于线性回归,我们应该有以下哪些假设()
1.找到离群点很重要,因为线性回归对离群点很敏感
2.线性回归要求所有变量必须符合正态分布
3.线性回归假设数据没有多重线性相关性
A. 1和2
B. 2和3
C. 1,2和3
D. 以上都不是
变量选择是用来选择最好的判别器子集,如果要考虑模型效率,我们应该做哪些变量选择的考虑()
1.多个变量其实有相同的用处
2.变量对于模型的解释有多大作用
3.特征携带的信息
4.交叉验证
A. 1和4
B. 1,2和3
C. 1,3和4
D. 以上所有
对于线性回归模型,包括附加变量在内,以下的可能正确的是()
1.R-Squared和AdjustedR-squared都是递增的
2.R-Squared是常量的,AdjustedR-squared是递增的
3.R-Squared是递减的,AdjustedR-squared也是递减的
4.R-Squared是递减的,AdjustedR-squared是递增的
A. 1和2
B. 1和3
C. 2和4
D. 以上都不是
下面对集成学习模型中的弱学习者描述错误的是()
A. 他们经常不会过拟合
B. 他们通常带有高偏差,所以其并不能解决复杂学习问题
C. 他们通常会过拟合