A. BP算法不能用于处理非线性分类问题 BP算法训练时间较长 C. BP算法容易陷入局部最小值 D. BP算法训练时候可能由于权值调整过大使得激活函数达到饱和
A. BP算法信号传播的顺序是输出层、隐层、输入层。 BP算法信号前向传播的计算量跟输入层神经元数目无关 C. BP算法在计算正向传播输出值时需要考虑激活函数 D. BP算法只有在隐层才有激活函数
A. Sigmoid函数计算量小 B. 可以将函数值的范围压缩到[0,1] C. 函数处处连续 D. 趋向无穷的地方,函数变化很小,容易出现梯度消失的现象
A. BP算法反向传播的预测误差值一般由真实标签值和预测标签值的差计算得来 BP算法反向传播的目的是只对权值进行更新 C. BP算法反向传播进行更新时一般用到微积分的链式传播法则 D. BP算法更新量与步长关系不大
A. 学习率的选择不能太大也不能太小 B. 学习率太大会导致无法收敛 C. 学习率太小会使得算法陷入局部极小点 D. 学习率必须是固定不变的
A. 算法只要知道上一层神经元的阈值梯度,就能计算当前层神经元的阈值梯度和连接权值梯度 B. 当前层的连接权值梯度,取决于当前层神经元阈值梯度和上一层神经元输出 C. 隐层的阈值梯度只跟本层的神经元输出值有关 D. 隐层阈值梯度取决于隐层神经元输出、输出层阈值梯度和隐层与输出层的连接权值
A. 尽量减小迭代的学习率 B. 在每一轮迭代中都赋予一定的概率接受次优解,但是概率随迭代不断降低 C. 令初始值为较大的值 D. 以上做法都不可行
A. 早期的神经网络算法需要训练的参数太多 B. 早期的神经网络算法无法收敛 C. 早期的神经网络算法无法处理非线性学习问题 D. 早期的神经网络的收敛速度太慢
A. 为参数选取多组初始值,分别训练,再选取一组作为最优值 B. 增大学习的步长 C. 减少训练数据集中数据的数量 D. 设置一个正则项减小模型的复杂度
A. ELM有多个隐藏层 B. ELM学习速度非常快,因为需要更新的变量数目很少 C. ELM隐藏层的权值是初始时随机赋值的,在迭代中不对其进行更新 D. ELM也分输入层、隐藏层和输出层三层