A. PCA是从原空间中顺序找一组相互正交的坐标轴 B. 原始数据中方差最大的方向是第一个坐标轴 C. 基于特征值分解协方差矩阵实现PCA算法 D. 奇异值分解只能适用于指定维数的矩阵分解
A. 奇异值分解就是把一个线性变换分解成两个线性变换 B. 奇异值往往对应着矩阵中隐含的重要信息,且重要性和奇异值大小正相关 C. SVD是对PCA的改进,其计算成本更低,相同之处是两者的目标都是为了降维 D. 奇异值不仅可以应用在数据压缩上,还可以对图像去噪
A. 可以分别求单个自变量与因变量的回归方程,然后简单求这些方程的加权和 B. 非线性回归方程的系数需要把其转化为线性回归方程才方便求解 C. 非线性回归模型的检验也可以使用R2 D. Logistic回归是一种典型的广义线性回归模型
A. 突触 B. 加法器 C. 激活函数 D. 输入信号
A. 可以转化为决策规则 B. 对新样本起到分类预测的作用 C. 决策树的深度越大越好 D. 决策树的算法和神经网络的原理不一样