浏览记录

   
查看大图

基于人脸识别的门禁系统-毕业设计(毕业论文)

  • 商品编号:c++ 756
  • 货  号:c++ 756
  • 品  牌:jgyc
  • 开发语言: C
  • 论文字数: 1.2W
  • 市场价: ¥300.00
  • 销售价: ¥200.00
  • 节省: ¥100.00

以下是介绍(不过多网上展示为了防止查重),如需要完整的请联系客服qq购买.提示:本资料已审核通过,内容严格保密,格式标准,质量保证,软件类的包调试成功. 需要这份设计请添加QQ745816773.团购或代理了解

Ctrl+D收藏此篇
app hook

 人脸识别毕业设计(毕业论文)

4.1 分类器毕业设计

4.1.1 SVM分类器设计

支持向量机(Support Vector MachineSVM)是Corinna CortesVapnik等人在1995年首次提出的,对于小型样本集,非线性分类以及在高维空间的模式识别表现出了优于其他分类算法的特点,目前,随着研究者不断对SVM进行优化,使得SVM在函数拟合、图像检测与识别、机器学习等领域有着非常广泛的应用。本文是要解决复杂环境下的人脸检测,核心是判别图像中是人脸或者是非人脸,从本质上讲,这是一个简单的二分类问题。考虑到SVM在线性分类与非线性分类都有其自身的优势,本文的分类算法是基于SVM算法的基本思想。

在机器学习中,SVM是与相关的学习算法有关的监督学习模型,能够对样本集、模式识别进行分类和回归分析。支持向量机的工作原理是,给定一组训练样本,对每个样本进行标记,将这些样本分成两类,然后应用SVM训练算法对样本集建立一个模型,这个模型就是在非同类之间形成一个超平面函数,通过这个判别函数就可以判定新样本属于哪个类别。

这一节主要介绍设计线性SVM分类器的基本原理,通过对线性分类的认知,再扩展到高维不可分的情况。首先,我们定义训练集 ,表示所有样本集数据;定义 ,表示训练集中的特征向量 表示两个可分的类别,经过前期的预处理工作,目的是为样本集 设计一个超平面,将所有样本集中所有的样本进行正确分类:

 

(4-7)

这样的超平面不是唯一的,训练出来的分类函数可能收敛到任何一个可能的解,如图4-6,两个分类器都能对样本进行正确分类,但是使用其中的哪一个,需要进行综合的评估。

4-6 线性可分SVM

从图4-6(a)所示,两个分类函数都可以进行正确的分类,但是最终选择哪一个分类器?答案是明显的,我们会毫不犹豫的选择实线表示的分类器,理由是实线超平面对于两个类来说更均匀,使各自的样本具有更大的空间,这样可以保持更大的弹性,有更大的容错性。

通过上面的描述,对于分类器的选择,即选择与两类都有一定距离的超平面分类器,它是从VapnikChervonkis[38]提供的数学公式演化而来。如何选择最终的超平面,首先就要对超平面进行量化,由图4-6(b)可知,控制超平面与两类的空间距离是由 决定的。因此,在选择超平面分类器的时候,我们的思想是让超平面到 两类中最近的节点距离相等,图4-6(b)对这种情况进行说明。这样就保证了超平面对于两类都有足够的空间与容错性。

点到平面的距离定义为等式(4-8),通过缩放 ,使得点到 类和 类之间的距离最短,如图4-6所示。

 

(4-8)

对于 类, 的值为1,对于 类为-1。可以用如下的方程进行说明。

1.存在一个间隔,使得                        

2.要求满足如下条件:

 

(4-9)

 

(4-10)

(4-9)(4-10)约束条件下,对每个特征向量 ,用 表示响应输出的类别,用+1-1表示,现在的任务就是就算最优的 ,得出最优超平面。要得到最优超平面,就要最小化:

 

(4-11)

其中,约束条件为:

 

(4-12)

最小化(4-11),就可以保证分类器到两类的距离最大,这是满足一系列线性不等式条件的二次方程最优化问题。根据KKT条件,要让表达式(4-11)(4-12)最小化的必要条件必须满足如下:

 

(4-13)

 

(4-14)

 

 

 

(4-15)

其中, 是拉格朗日乘子 组成的向量, 是拉格朗日函数,被定义为:     

 

(4-16)

      通过公式(4-13)(4-14),最终得出:

 

(4-17)

需要注意的是,拉格朗日乘子只能大于等于0。因此,最优权重参数向量 个特征向量的线性组合, 小于等于 。其中 不等于0,最终简化为等式(4-18)

 

(4-18)

最终得到的 就是最优超平面的权重,也就是最优SVM分类器的权重。对非的拉格朗日乘子,在(4-16)的条件约束之下,对于分类器两边的类,都会满足等式(4-19):                       

 

(4-19)

在得到 之后, 可以通过表达式(4-10)隐含计算获得,而且必须满足严格的互补性条件。事实上, 是应用条件均值计算而来的,得到权重向量以及偏移向量之后,就得到了唯一的最优支持向量机。

本节主要对SVM做了详细介绍以及推理过程,由于SVM有众多优点,可以解决小样本情况下的机器学习,提高泛化性能,并且对于高维空间的特征向量具有很好的分类效果,同时SVM可以高维特征向量进行非线性的映射,解决非线性问题。但是,SVM同样存在其自身的缺陷,首先是对数据感的缺失,其次是对于非线性问题没有统一的解决方法,在解决此类问题时,需严谨的选择核函数来处理,增加了整体复杂性。本文属于典型的二分类问题,特征向量采用经典的HOG特征与LUV颜色特征的融合,通过融合之后的特征,在空间上属于高维性质,SVM对于解决此类问题具有较大的优势,因此,本文将采用SVM分类器作为基本分类器。

人脸识别毕业设计,其它相关的毕业设计:人脸识别毕业设计

如果您对本商品有什么问题,请提问咨询!

发表咨询

标题:
*咨询内容:
联系方式: (可以是电话、email、qq等)
*验证码:   看不清楚?换个图片
如果您对本商品有什么评价或经验,欢迎分享!

发表评论

标题:
*评论内容:
联系方式: (可以是电话、email、qq等).
*验证码:   看不清楚?换个图片
<