A. 决策树 B. 支持向量机 C. BRICH D. 朴素贝叶斯
A. 回归分析 B. 聚类分析 C. 关联规则发现 D. 自然语言处理
A. 增加训练集量 B. 减少神经网络隐藏层节点数 C. 删除稀疏的特征 D. SVM算法中使用高斯核/RBF核代替线性核
A. 减少模型的特征数量 B. 增加模型的特征数量 C. 增加样本数量 D. 以上说法都正确
A. 使用L1可以得到稀疏的权值,使用L2可以得到平滑的权值 B. 使用L1可以得到平滑的权值,使用L2可以得到平滑的权值 C. 使用L1可以得到平滑的权值,使用L2可以得到稀疏的权值 D. 使用L1可以得到稀疏的权值,使用L2可以得到稀疏的权值
A. 我们必须在使用PCA前规范化数据 B. 我们应该选择使得模型有最大variance的主成分 C. 我们应该选择使得模型有最小variance的主成分 D. 我们可以使用PCA在低维度上做数据可视化
A. 增加网络层数,可能会增加测试集分类错误率 B. 增加网络层数,一定会增加训练集分类错误率 C. 减少网络层数,一定会减少训练集分类错误率 D. 以上说法都不对
A. 增大惩罚参数 C 的值 B. 减小惩罚参数 C 的值 C. 减小核系数(gamma参数) D. 减少训练样本数量
A. 监督学习+强化学习 B. 无监督学习+强化学习 C. 监督学习+迁移学习 D. 无监督学习+迁移学习