A. 一元线性回归模型的系数可以使用最小二乘法求得 B. 多元回归模型的系数可以使用梯度下降法求得 C. 一元线性回归模型的系数大小和正负说明自变量对因变量的相对影响大小 D. 回归分析的目的是计算回归方程的系数,使得样本的输入和输出变量之间的关系能够合理拟合
A. PCA是从原空间中顺序找一组相互正交的坐标轴 B. 原始数据中方差最大的方向是第一个坐标轴 C. 基于特征值分解协方差矩阵实现PCA算法 D. 奇异值分解只能适用于指定维数的矩阵分解
A. 奇异值分解就是把一个线性变换分解成两个线性变换 B. 奇异值往往对应着矩阵中隐含的重要信息,且重要性和奇异值大小正相关 C. SVD是对PCA的改进,其计算成本更低,相同之处是两者的目标都是为了降维 D. 奇异值不仅可以应用在数据压缩上,还可以对图像去噪
A. 可以分别求单个自变量与因变量的回归方程,然后简单求这些方程的加权和 B. 非线性回归方程的系数需要把其转化为线性回归方程才方便求解 C. 非线性回归模型的检验也可以使用R2 D. Logistic回归是一种典型的广义线性回归模型
A. 突触 B. 加法器 C. 激活函数 D. 输入信号