您好,欢迎访问三七文档
人脸识别——特征脸方法贾东亚12346046一、实验目的1、学会使用PCA主成分分析法。2、初步了解人脸识别的特征法。3、更熟练地掌握matlab的使用。二、原理介绍1、PCA(主成分分析法介绍)引用一个网上的例子。假设有一份对遥控直升机操作员的调查,用x1(i)表示飞行员i的飞行技能,x2(i)表示飞行员i喜欢飞行的程度。通常遥控直升飞机是很难操作的,只有那些非常坚持而且真正喜欢驾驶的人才能熟练操作。所以这两个属性x1(i)和x2(i)相关性是非常强的。我们可以假设两者的关系是按正比关系变化的。如下图里的任意找的向量u1所示,数据散布在u1两侧,有少许噪声。现在我们有两项数据,是二维的。那么如何将这两项变量转变为一个来描述飞行员呢?由图中的点的分布可知,如果我们找到一个方向的U,所有的数据点在U的方向上的投影之和最大,那么该U就能表示数据的大致走向。而在垂直于U的方向,各个数据点在该方向的投影相对于在U上的投影如果足够小,那么我们可以忽略掉各数据在该方向的投影,这样我们就把二维的数据转化成了在U方向上的一维数据。为了将u选出来,我们先对数据进行预处理。先求出所有数据的平均值,然后用数据与平均值的偏差代替数据本身。然后对数据归一化以后,再代替数据本身。而我们求最大的投影和,其实就是求各个数据点在U上的投影距离的方差最大。而XTu就是投影的距离。故我们要求下式的最大值:1m∑(x(i)Tu)2=uT(1m∑x(i)x(i)Tmi=1)mi=1u按照u是单位向量来最大化上式,就是求1m∑x(i)x(i)Tmi=1的特征向量。而此式是数据集的协方差矩阵。在实际应用中,我们不止面临二维的数据。因此不能使用几何的形式呈现,但原理也是一样。就是找到一组相互正交的单位向量uk,然后根据贡献率考虑选择其中的部分作为考量的维数,这也就实现了数据的降维。三、实验步骤1、将库里的400张照片分成两组。一组作为训练,一组作为库。每个人的前五张照片作为训练,后五张作为库。训练的照片按照顺序的数字重命名。库的照片名字不变。2、库照片处理。①将每一张库的照片转化成N维的向量。(库里的照片是112*92,故将转化成的矩阵按列或行展开,就是个10304维的向量)我们稍后要对如此多维的向量用PCA进行降维。然后把这些向量存入一个矩阵里。而我是将这200个向量以列的形式存在了矩阵里。即Z={Γ1,Γ2,Γ3,Γ4…Γ200}②将这200个向量的每个元素相加起来求出平均值。再用Z里的每一个向量减去这个平均值得到每个的偏差。平均值Γ̅=1200∑Γk200k=1,每个向量的偏差ϕk=Γk−Γ̅即最后Z={ϕ1,ϕ2,ϕ3,ϕ4…ϕ200}③接下来我们就要针对这些预处理后的数据进行降维。我们要求的N个相互正交的向量就是协方差矩阵ZZT的特征向量,而对应的特征值就是各个向量所占的比重。但是Z是个10304*200的矩阵,那么ZZT就是个10304*10304的矩阵。使用matlab直接求其特征值与特征向量不太实际。所以我们考虑一个简单的运算方法:协方差矩阵的秩受到训练图像的限制:如果有N个训练样本,则最多有N−1个对应非零特征值的特征向量,其他的特征向量对应的特征值都是0。如果训练样本的数目比图像的维数低,则可以通过如下方法简化主成份的计算。设Z是预处理图像的矩阵,每一列对应一个减去均值图像之后的图像。则,协方差矩阵为=T,并且对S的特征值分解为i=Ti=ii然而,T是一个非常大的矩阵。因此,如果转而使用如下的特征值分解。Tui=iui此时,我们发现如果在等式两边乘以T,可得到Tui=iui这就意味着,如果ui是TTT的一个特征向量,则i=ui是S的一个特征向量。我们的库里有200张112*92像素的图像,则TTT是一个200*200的矩阵,这就比原先的10304*10304的协方差矩阵要容易处理许多。需要注意的是,上面的特征向量i没有进行归一化,如果需要,应该在后面在进行处理。④降维处理。上面的步骤已经求到了所有的特征向量与特征值。而特征值就是各数据点在该特征向量上的方差。跟据PCA,我们要选出占主要比重的特征向量即可,而判定标准就是特征值。先把方差(特征值)降序排列,并把对应的特征向量也排列好。依次选择方差,使选出的方差和占所有方差和大约95%左右。然后选择对应的特征向量。其余的特征向量与特征值可以抛弃不用了。这就完成了降维。(③中一共有200个不为零的方差(特征值))⑤归一化处理。数据归一化处理是数据挖掘的一项基础工作,不同评价指标往往具有不同的量纲和量纲单位,这样的情况会影响到数据分析的结果,为了消除指标之间的量纲影响,需要进行数据标准化处理,以解决数据指标之间的可比性。原始数据经过数据标准化处理后,各指标处于同一数量级,适合进行综合对比评价。我使用的是Z-score法。经过处理得数据符合标准正态分布,即均值为0,标准差为1,转化函数为x=x−其中为所有数据的均值,为所有样本数据的标准差。在③里求得的特征值就是方差。所以我们要用1√乘上每一个对应的特征向量。本来这个归一化处理应该放在第一步的数据预处理那里。但由于那里的计算还没有涉及到协方差矩阵,而我们需要的方差在后面才出现,故把归一化处理放在这里。即③中,i=1√iui这些特征向量都是10304*1的大小,跟我们一开始处理后的照片向量的大小一样。这些就是特征脸。特征脸可以线性组合成所有库里的脸。⑥用特征脸对库里的脸进行标示,也就是将库里的每张脸图数据转化成各个特征脸所占的比重。即k=kTϕi=1…=1…,n是最后选出的方差数量iT={1234…}⑦人脸识别。先对训练的脸图进行预处理。预处理即①②中所说的求偏差。求到训练图的偏差向量后,如⑥那样用特征脸对训练图进行标示。即求得T={1234…}然后求T与iT的欧式距离,此距离表明两图的接近度。即ε=‖T−iT‖2该距离越小,则这两张图越接近,则越有可能是同一个人。四、编程实现代码:函数:[zz,y,tzl]=circ(),对库图像的处理,并求出处理训练图像需要的特征脸和数据平均值。函数:[ws]=ld(zz,y,tzl)这三个自变量都是上面的函数的输出变量。Ws是200张训练人脸识别的正确性。运行结果:200张训练图片的识别率为91.5%加了显示代码后显示的图片结果:五、实验总结收获:这次实验让我更加熟练地应用了matlab。对矩阵的运算也理解地更加的透彻。学习了PCA主成分分析法,这个方法在分析较多的数据时是非常有用的。在如今的大数据时代,PCA是个非常实用的分析手段。这次在做实验的过程中,上网查阅了许多关于人脸识别的资料,发觉虽然自己完成了初步的人脸识别的功能,但远远没有达到现实生活的需求。我们做实验的orl库的像素不仅非常低,而且每张人脸的位置与大小也非常接近,这都大大降低了难度。这个方向还有着许多可学习的东西。实验中遇到的难题:一开始最难理解的莫过于特征脸法的原理。原理中涉及到许多的线性代数知识,需要花时间去回忆,并用已经掌握的初步的知识去理解更深刻的知识。在咨询过程与上网查阅资料的过程中才慢慢解决了问题。后来代码完成后,识别率一直非常低。与完成了的同学对照时,发现代码的原理几乎一样,当时一直不知道怎么办。后来经过旁人的提醒,发现协方差矩阵的特征向量没有按照特征值排序后的顺序重新排列。这个小问题困扰了我很久。细节很重要。
本文标题:人脸识别实验报告
链接地址:https://www.777doc.com/doc-2709861 .html