- 1、本文档共4页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
实用标准
实用标准
文案大全
文案大全
一、判断题(共 10 个题)
请写清楚题号,在答卷纸上填写√或×,不要直接在本页回答。
特别说明:本部分题目的得分规则为:答对一个题,得2 分;不答(即放弃回答)的题,本题得 0 分;答错一个题,得-2 分(即反扣 2 分)。本道大题得负分的,从其他大题扣除。所以,判断题的回答,建议慎重对待。
基于最小错误率的贝叶斯概率是 损失函数 0-1 的 基于最小风险贝叶斯概率的特例
监督参数估计是(太多记不住)。。。
单隐层神经网络在经过足够训练后,不管节点多少,总能找到全局最优解。
决策树可以生成规则集,且生成的规则集是可以解释的。
SVM 向量机在样本数据少、非线性的情况下有优势。
Bagging 是一种串行学习框架。
泛化能力指的是在训练集中体现的特点。
Self_Trainning 是一种半监督的方法。
决策树属性选择是依照信息增益比。
2006 年以前,多隐层神经网络因为缺乏良好的算法,限制了深度学习的发展。
二、计算题
设在某个局部地区细胞识别中正常
和异常
两类的先验概率分别为:
正常状态: P (
异常状态: P (
) 0.9 1 2
1
) 0.1
2
现有一待识别的细胞,其观察值为x,从类条件概率密度分布曲线上查得
p(x |
) 0.2, p(x |
1
) 0.4
2
试使用贝叶斯决策对该细胞x 进行分类(要求给出具体计算过程及计算结果) 解:
利用贝叶斯公式,分别计算出
及 的后验概率
1 2
P ( |x)
p(x |
)p(
1
) 0.2 0.9
1
0.818
1 2
p(x |
j 1
)p( )
j j
0.2 0.9 0.4 0.1
P ( |x) 1 P (
2
|x) 0.182
1
根据贝叶斯决策规则,有
P ( |x)
0.818
P ( |x)
0.182
1
2
所以合理的决策规则是把x 归类于正常状态。
三、简答题
1、应用贝叶斯决策需要满足的三个前提条件是什么?
(1)分类的类别数;(2)先验概率;(3)各类的类条件概率密度。
2、试简述您对先验概率和后验概率理解
先验概率:预先已知的或者可以估计的模式识别系统位于某种类型的概率。根据大数定律,当训练集包含充足的独立同分布样本时,先验概率就可以通过各类样本出现的频率来进行估计。
后验概率:后验概率是通过贝叶斯公式对先验概率进行修正,计算而得出的概率。表示
系统在某个具体的模式样本X 条件下位于某种类型的概率。
3、试简述 Fisher 线性判别的基本思想
解决多维到一维的投影问题,利用线性判别方法解决一维分类问题。
从 k 个总体中抽取具有p 个指标的样品观测数据,借助方差分析的思想构造一个线性判别函数,构造原则是使得总体之间区别最大,而使各总体内部的离差最小。有了线性判别函数之后,对于一个新的样品,将它的 p 个指标值带入线性判别函数式中求出结果值,然后根据一定的规则,就能判别新的样品属于哪个总体。
投影降维:将多维空间的样本投影到一维空间,根据实际情况找到一条最好的、易于分
类的投影线。寻找合适的投影方向,即寻找好的变换向量。
一维分类:当维数和样本数都很大时,可用贝叶斯决策规则;上述条件都不符合,可用先验知识选定分界阈值点y0,再有决策规则判断x 属于何类别。
4、试简述何为 k-近邻法
(1)K-近邻学习是一种常用的监督学习方法,
(2)k-近邻法的基本思想:给定一个训练数据集,对新的输入实例,基于某种距离度量找出训练集中与其最靠近的 K 个实例(邻居)。然后基于这 K 个实例的信息来进行预测,使各点邻域体积为数据的函数,而不是样本数的函数,实现各点密度估计。看这 K 个近邻中多数属于哪一类,就把输入实例归为哪一类;
5、试简述您对非线性支持向量机(SVM)理解
题,求得原始问题的对偶问题的最优解,由此可以求出原始问题的最优解;对于线性支持向量机,选择一个合适的惩罚参数C
题,求得原始问题的对偶问题的最优解
,由此可以求出原始问题的最优解;
(1)选取适当的核函数和适当的参数,构造原始问题的对偶问题,求得对应的最优解 ;在处理非线性问题时,可以通过将非线性问题转化成线性问题,并通过已经构建的线性支持向量机来处理。在线性不可分的情况下,SVM 首先在低维空间中完成计算,然后通过选
(1)选取适当的核函数
和适当的参数
,构造原始问题的对偶问题,求
得对应的最优解 ;
(2)选择 的一个满足的分量,求 ;
(2)选择 的一个满足
的分量,求 ;
6、试简述何为度量学习
在机器学习中,对高维数据进行降维的主要目的是希望找到一个合适的低维空间,在此 空间中学习比原始空间更好。事实上,每个空间对应了在样本属性上定义的一个距离度量。度量学习可以根据不同的任务来自主
您可能关注的文档
- 厦门大学2012量子力学期末考试试卷及答案集.docx
- 厦门第三医院PETCT及配套设施招标参数2018年07月项目清单.docx
- 山苍子栽培繁殖技术经验简介.docx
- 山东版中职生高中心理健康教育第22课掌握学习方法和策略表格式教案.docx
- 山东初级会计电算化考试软件操作流程考生须知.docx
- 山东大学综合招生笔试面试要求及题和准备.docx
- 山东济南市商河县20152016年八年级上学期期末考试英语试题.docx
- 山东省2020届高三普通高等学校招生全国统一考试模拟卷物理试卷.docx
- 山东省2020年普通高中学业水平等级考试.docx
- 山东省2020年普通高中学业水平等级考试地理试题.docx
文档评论(0)