SVM原理及在人脸识别中的应用.docx

  1. 1、本文档共20页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
SVM原理及在人脸识别中的应用

关于SVM及其应用的相关原理支持向量机介绍下面我简单介绍下何为小样本、非线性及高维模式识别小样本,并不是说样本的绝对数量少,实际上,对任何算法来说,更多的样本几乎总是能带来更好的效果,而是说与问题的复杂度比起来,SVM算法要求的样本数是相对比较少的。非线性,是指SVM擅长应付样本数据线性不可分的情况高维模式识别是指样本维数很高,例如样本出现几万维,不用降维处理,其他算法基本就没有能力应付了,SVM却可以,主要是因为SVM 产生的分类器很简洁,用到的样本信息很少,使得即使样本维数很高,也不会给存储和计算带来大麻烦。何为机器学习之后会介绍。支持向量机方法:下面我简单介绍下何为VC 维理论和结构风险最小原理以期推广能力所谓VC维是对函数类的一种度量,我们就简单的理解为问题的复杂程度,VC维越高,一个问题就越复杂。(1)PPT下一页在讲解结构风险最小原理,先介绍下风险,风险就是与真实解的误差。我举个例子来说,我们不知道宇宙是如何诞生,就是不知道宇宙的真实模型,如果知道真实的宇宙模型,我们直接用真实模型就可以了。既然不知道,我们就根据一些现象假设认为宇宙诞生于150亿年前的一场大爆炸,这个假设能够描述很多我们观察到的现象,但它与真实的宇宙模型之间还相差多少?谁也说不清,因为我们压根就不知道真实的宇宙模型到底是什么。这个差距我们就认为是风险经验风险就是分类器在给定样本上的误差,就是我们选择一个假设之后,真实误差无从得知,但我们可以用某些可以掌握的量来逼近它。就是使用分类器在样本数据上的分类的结果与真实结果之间的差值来表示。这个差值叫做经验风险。置信风险是分类器在未知文本上分类的结果的误差。代表了我们在多大程度上可以信任分类器在未知文本上分类的结果。很显然,没有办法精确计算的,因此只能给出一个估计的区间,也使得整个误差只能计算上界,而无法计算准确的值。结构风险就是经验风险与置信风险之和(2)PPT下一页下面介绍下机器学习和推广能力机器学习就是对一种对问题真实模型的逼近。机器学习分为传统机器学习和统计机器学习。传统机器学习方法是把经验风险最小化作为努力的目标,但后来发现很多分类函数能够在样本集上轻易达到100%的正确率,然而用分类函数对未知样本分类时却一塌糊涂。经验风险最小化原则适用的大前提是经验风险要确实能够逼近真实风险才行,但实际上能逼近么?答案是不能,因为样本数相对于现实世界要分类的文本数来说简直九牛一毛,经验风险最小化原则只在这占很小比例的样本上做到没有误差,当然不能保证在更大比例的真实文本上也没有误差。所以传统的机器学习基本上属于摸着石头过河,用传统的机器学习方法构造分类系统完全成了一种技巧,一个人做的结果可能很好,另一个人差不多的方法做出来却很差,缺乏指导和原则。统计统计机器学习目标是从经验风险最小化变为了寻求经验风险与置信风险的和最小而推广能力就是,用已知样本得到的一个分类器,在其他未知样本分类时候也能获得很好的正确率。(3)PPT下一页——SVM基础大家可以看上图,我们要区分C1和C2 这两类,红色的曲线可以区分出来,但是用线性函数进行区分是最简单也很有效的. 我将用一个二维空间里仅有两类样本的分类问题来举例,来说明SVM的形成思路与核心概念何为线性可分与线性不可分,C1和C2是要区分的两个类别,如图所示。中间的直线就是一个分类函数,它可以将两类样本完全分开。一般的,如果一个线性函数能够将样本完全正确的分开,就称这些数据是线性可分的,否则称为非线性可分的。线性函数在一维空间里就是一个点,在二维空间里就是一条直线,三维空间里就是一个平面,如此想象下去,如果不关注空间的维数,这种线性函数一个统一的名称即为超平面下面我们要区分C1,C2可以得到得到一个线性函数 g(x)=wx+b 如取阈值为0,当有一个样本xi需要判别的时候。若g(xi)0,就判别为类别C1,若g(xi)0,则判别为类别C2。很容易区分出样本是属于C1还是C2(4)PPT下一页关于线性函数g(x)=wx+b要注意,式中的x不是二维坐标系中的横轴,而是样本的向量表示,例如一个样本点的坐标是(3,8),则x是向量(3,8) ,而不是x=3,第二点是这个形式并不局限于二维的情况,在n维空间中仍然可以使用这个表达式,只是式中的w成为了n维向量;三是,g(x)不是中间那条直线的表达式,中间那条直线的表达式是g(x)=0,即wx+b=0,我们也把这个函数叫做分类面。实际上很容易看出来,中间那条分界线并不是唯一的,如图中的绿线和红线,甚至很多线都可以将C1,C2分类出来并且不会分错。哪一个线性函数更好呢?显然必须要先找一个指标来量化“好”的程度,通常使用的都是叫做“几何间隔”的指标。(5)PPT下一页在进行文本分类的时候,我们可以让计算机这样来看待我们提供给它的训练样本,每一个样

文档评论(0)

xjj2017 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档