山东大学2016模式识别考试地题目回忆版.docx

山东大学2016模式识别考试地题目回忆版.docx

  1. 1、本文档共4页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
实用标准 实用标准 文案大全 文案大全 一、判断题(共 10 个题) 请写清楚题号,在答卷纸上填写√或×,不要直接在本页回答。 特别说明:本部分题目的得分规则为:答对一个题,得2 分;不答(即放弃回答)的题,本题得 0 分;答错一个题,得-2 分(即反扣 2 分)。本道大题得负分的,从其他大题扣除。所以,判断题的回答,建议慎重对待。 基于最小错误率的贝叶斯概率是 损失函数 0-1 的 基于最小风险贝叶斯概率的特例 监督参数估计是(太多记不住)。。。 单隐层神经网络在经过足够训练后,不管节点多少,总能找到全局最优解。 决策树可以生成规则集,且生成的规则集是可以解释的。 SVM 向量机在样本数据少、非线性的情况下有优势。 Bagging 是一种串行学习框架。 泛化能力指的是在训练集中体现的特点。 Self_Trainning 是一种半监督的方法。 决策树属性选择是依照信息增益比。 2006 年以前,多隐层神经网络因为缺乏良好的算法,限制了深度学习的发展。 二、计算题 设在某个局部地区细胞识别中正常 和异常 两类的先验概率分别为: 正常状态: P ( 异常状态: P ( ) 0.9 1 2 1 ) 0.1 2 现有一待识别的细胞,其观察值为x,从类条件概率密度分布曲线上查得 p(x | ) 0.2, p(x | 1 ) 0.4 2 试使用贝叶斯决策对该细胞x 进行分类(要求给出具体计算过程及计算结果) 解: 利用贝叶斯公式,分别计算出 及 的后验概率 1 2 P ( |x) p(x | )p( 1 ) 0.2 0.9 1 0.818 1 2 p(x | j 1 )p( ) j j 0.2 0.9 0.4 0.1 P ( |x) 1 P ( 2 |x) 0.182 1 根据贝叶斯决策规则,有 P ( |x) 0.818 P ( |x) 0.182 1 2 所以合理的决策规则是把x 归类于正常状态。 三、简答题 1、应用贝叶斯决策需要满足的三个前提条件是什么? (1)分类的类别数;(2)先验概率;(3)各类的类条件概率密度。 2、试简述您对先验概率和后验概率理解 先验概率:预先已知的或者可以估计的模式识别系统位于某种类型的概率。根据大数定律,当训练集包含充足的独立同分布样本时,先验概率就可以通过各类样本出现的频率来进行估计。 后验概率:后验概率是通过贝叶斯公式对先验概率进行修正,计算而得出的概率。表示 系统在某个具体的模式样本X 条件下位于某种类型的概率。 3、试简述 Fisher 线性判别的基本思想 解决多维到一维的投影问题,利用线性判别方法解决一维分类问题。 从 k 个总体中抽取具有p 个指标的样品观测数据,借助方差分析的思想构造一个线性判别函数,构造原则是使得总体之间区别最大,而使各总体内部的离差最小。有了线性判别函数之后,对于一个新的样品,将它的 p 个指标值带入线性判别函数式中求出结果值,然后根据一定的规则,就能判别新的样品属于哪个总体。 投影降维:将多维空间的样本投影到一维空间,根据实际情况找到一条最好的、易于分 类的投影线。寻找合适的投影方向,即寻找好的变换向量。 一维分类:当维数和样本数都很大时,可用贝叶斯决策规则;上述条件都不符合,可用先验知识选定分界阈值点y0,再有决策规则判断x 属于何类别。 4、试简述何为 k-近邻法 (1)K-近邻学习是一种常用的监督学习方法, (2)k-近邻法的基本思想:给定一个训练数据集,对新的输入实例,基于某种距离度量找出训练集中与其最靠近的 K 个实例(邻居)。然后基于这 K 个实例的信息来进行预测,使各点邻域体积为数据的函数,而不是样本数的函数,实现各点密度估计。看这 K 个近邻中多数属于哪一类,就把输入实例归为哪一类; 5、试简述您对非线性支持向量机(SVM)理解 题,求得原始问题的对偶问题的最优解,由此可以求出原始问题的最优解;对于线性支持向量机,选择一个合适的惩罚参数C 题,求得原始问题的对偶问题的最优解 ,由此可以求出原始问题的最优解; (1)选取适当的核函数和适当的参数,构造原始问题的对偶问题,求得对应的最优解 ;在处理非线性问题时,可以通过将非线性问题转化成线性问题,并通过已经构建的线性支持向量机来处理。在线性不可分的情况下,SVM 首先在低维空间中完成计算,然后通过选 (1)选取适当的核函数 和适当的参数 ,构造原始问题的对偶问题,求 得对应的最优解 ; (2)选择 的一个满足的分量,求 ; (2)选择 的一个满足 的分量,求 ; 6、试简述何为度量学习 在机器学习中,对高维数据进行降维的主要目的是希望找到一个合适的低维空间,在此 空间中学习比原始空间更好。事实上,每个空间对应了在样本属性上定义的一个距离度量。度量学习可以根据不同的任务来自主

文档评论(0)

我是大神 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档