BP算法基于()策略对参数进行调整 A:梯度下降 B:梯度上升 C:最小化误差 D:误差逆传播 答案: 梯度下降BP神经网络由于其强大的表示能力,经常遭遇()问题,即训练误差持续下降,但测试误差却可能上升。 A:欠拟合 B:过拟合 C:梯度 点我阅读全文
模型的评估方法不包括()。 A:自助法 B:计分法 C:交叉验证法 D:留出法 答案: 计分法决策树学习的目的是为了产生一棵泛化能力强,即处理未见示例能力强的决策树 A:对 B:错 答案: 对模型评估方法中留出法的缺点是()。 A:在数据集 点我阅读全文
选择模型的依据包括()。 A:存储开销 B:泛化性能 C:时间开销 D:可解释性 答案: 存储开销,泛化性能,时间开销,可解释性决策树学习算法中,随着划分过程不断进行,我们希望决策树的分支结点所包含的样本尽可能属于不同类别。 A:对 B:错 点我阅读全文
以下哪些是可能导致模型过拟合的原因() A:模型学习到了样本的一般性质 B:学习迭代次数过多 C:训练集数量级和模型复杂度不匹配,训练集的数量级小于模型的复杂度 D:训练集和测试集特征分布不一致 答案: 学习迭代次数过多,训练集数量级和模型 点我阅读全文
回归任务最常用的性能度量是“查准率和查全率” A:错 B:对 答案: 错剪枝策略是对付“过拟合”的主要手段,即可通过主动去掉一些分支来降低过拟合的风险。 A:对 B:错 答案: 对训练数据较少时更容易发生欠拟合 A:对 B:错 答案: 对若 点我阅读全文
方差度量了学习算法期望预测与真实结果的偏离程度 A:错 B:对 答案: 错多隐层感知机比单隐层感知机的表达能力强 A:错 B:对 答案: 错线性回归目的是学得一个()以尽可能准确地预测实值输出标记 A:指数模型 B:对数模型 C:线性模型 点我阅读全文
基于梯度的搜索是使用最广泛的参数寻优方法,若误差函数在当前点的梯度为零,则已达到全局最小。 A:对 B:错 答案: 错多层感知机表示异或逻辑时最少需要( )个隐含层(仅考虑二元输入) A:4 B:2 C:3 D:1 答案: 2 点我阅读全文
在学习过程中,X表示数据集,Y是所有标记的集合,也称为( )。 A:属性集合 B:样本集合 C:输出空间 D:函数 答案: 输出空间解决类别不平衡的方法包括() A:去除正例样本 B:过采样 C:阈值移动 D:欠采样 答案: 过采样,阈值移 点我阅读全文
下列关于学习算法的说法正确的是 A:学习算法必须有某种偏好,才能产出它认为“正确”的模型 B:在某些问题上表现好的学习算法,在另一些问题上却可能不尽人意 C:要谈论算法的相对优劣,必须要针对具体的学习问题 D:学习算法自身的归纳偏好与问题是 点我阅读全文
机器学习是整个人工智能的核心,机器学习算法的特征之一就是( )。 A:特征 B:数据 C:类别 D:模型 答案: 模型线性判别分析(LDA)设法将样例投影到一条直线上,使得同类样例的投影点尽可能接近 A:错 B:对 答案: 对模型的泛化能力 点我阅读全文
演绎是从一般到特殊的”特化”过程,即从基础原理推演出具体状况 A:对 B:错 答案: 对在分类学习任务中,可以增加一些正例解决类别不平衡问题 A:错 B:对 答案: 对分类预测的是离散值 A:对 B:错 答案: 对线性回归目的是学得多项式模 点我阅读全文
实际应用中,“一个模型肯定比另一个模型具有更强的泛化能力”的这种情况是不存在的。 A:对 B:错 答案: 对在属性划分中,信息增益越大,结点的纯度() A:不变 B:降低越快 C:提升越大 D:变为零 答案: 提升越大机器学习的目标就是获得 点我阅读全文
测试性能随着测试集的变化而变化 A:错 B:对 答案: 对多变量决策树中的非叶子节点是对()属性的线性组合进行测试。 A:零个 B:所有 C:一个 D:若干个 答案: 若干个以下关于回归的说法中,不正确的是()。 A:回归的目标属性是离散的 点我阅读全文