您好,欢迎访问三七文档
当前位置:首页 > 机械/制造/汽车 > 汽车理论 > Matlab平台基于VQ的语者识别系统
1Matlab平台基于VQ的语者识别系统2SummaryAbstract:语者识别即为判断说话的人是不是他的使用者。本组用基于VQ的语者识别系统系统模型,通过提取Mel倒谱系数,制作模板码本与测试者相应参数进行对比,根据阈值判断,差别最小的则认为匹配原训练模板,即测试者与训练者为同一人,否则认为不是同一人。通过此过程实现语者识别功能。在功能上分为两大部分,语者判定以及实施辨别。Contents1.Introduction……………………………………………………..31.1语者识别的概念…………………………………………….31.2特征参数的提取…………………………………………….41.3用矢量量化聚类法生成码本……………………………….41.4VQ的说话人识别……………………………………….....52.TheProgram…………………………………………………….62.1函数关系…………………………………………………….62.2代码说明…………………………………………………….62.2.1函数mfcc……………………………………………….62.2.2函数disteu……………………………………………...62.2.3函数vqlbg……………………………………………....72.2.4函数test…………………………………………………82.2.5函数testDB……………………………………………...82.2.6函数train……………………………………………….92.2.7函数melfb……………………………………………….93.Results&Discussion…………………………………………….104.FurtherWork……………………………………………………..1231.Introduction关于语者识别:在生物辨识技术中,语者辨识是利用人类最自然的口语表达作为辨识身分的依据。语者辨识一般分为语者识别及语者确认,前者是要辨识说话者是谁,后者则是判断说话的人是不是他所宣称的使用者,本项目的研究主题是后者。语者确认常被视为一个假说测定问题,利用似然比例测试方法来解:空假说表示说话者为真正的使用者,替代假说表示其为冒充者。我们可以收集特定使用者的语音数据来训练空假说模型,但替代假说牵涉未知的冒充者,较难模型化。针对此点,传统的作法是收集很多人的语音,训练一个通用背景模型,或是几位与目标使用者声音相似的人的语音,训练数个背景模型,再利用取极大值、取极小值、算数平均或几何平均等方法来结合个别的模型分数。基于VQ的语者识别系统系统模型基于VQ的说话人识别系统,矢量量化起着双重作用。在训练阶段,把每一个说话者所提取的特征参数进行分类,产生不同码字所组成的码本。在识别(匹配)阶段,我们用VQ方法计算平均失真测度(本系统在计算距离d时,采用欧氏距离测度),从而判断说话人是谁。语音识别系统结构框图如图1所示。图1语音识别系统结构框图1.1语者识别的概念语者识别就是根据说话人的语音信号来判别说话人的身份。语音是人的自然属性之一,由于说话人发音器官的生理差异以及后天形成的行为差异,每个人的语音都带有强烈的个人色彩,这就使得通过分析语音信号来识别说话人成为可能。用语音来鉴别说话人的身份有着许多独特的优点,如语音是人的固有的特征,不会丢失或遗忘;语音信号的采集方便,系统设备成本低;利用电话网络还可实现远程客户服务等。因此,近几年来,说话人识别越来越多的受到人们的重视。与其他生物识别技术如指纹识别、手形识别等相比较,说话人识别不仅使用方便,而且属于非接触性,容易被用户接受,并且在已有的各种生物特征识别技术中,是唯一可以用作远程验证的识别技术。因此,说话人识别的应用前景非常广泛:今天,说话人识别技术已经关系到多学科的研究领域,不同领域中的进步都对说话人识别的发展做出了贡献。说话人识别技术是集声学、语言学、计算机、信息处理和人工智能等诸多领域的一项综合技术,应用需求将十分广阔。在吃力语4音信号的时候如何提取信号中关键的成分尤为重要。语音信号的特征参数的好坏直接导致了辨别的准确性。1.2特征参数的提取对于特征参数的选取,我们使用mfcc的方法来提取。MFCC参数是基于人的听觉特性利用人听觉的屏蔽效应,在Mel标度频率域提取出来的倒谱特征参数。MFCC参数的提取过程如下:1.对输入的语音信号进行分帧、加窗,然后作离散傅立叶变换,获得频谱分布信息。设语音信号的DFT为:10,)()(112NkenxkXNnNnkja(1)其中式中x(n)为输入的语音信号,N表示傅立叶变换的点数。2.再求频谱幅度的平方,得到能量谱。3.将能量谱通过一组Mel尺度的三角形滤波器组。我们定义一个有M个滤波器的滤波器组(滤波器的个数和临界带的个数相近),采用的滤波器为三角滤波器,中心频率为f(m),m=1,2,3,···,M本系统取M=100。4.计算每个滤波器组输出的对数能量。N12amk1S(m)ln(|(k)|H(k)),0mM1X(2)其中mH(k)为三角滤波器的频率响应。5.经过离散弦变换(DCT)得到MFCC系数。10C(n)()cos((0.5/)),(3)01MmSmnmmnNMFCC系数个数通常取20—30,常常不用0阶倒谱系数,因为它反映的是频谱能量,故在一般识别系统中,将称为能量系数,并不作为倒谱系数,本系统选取20阶倒谱系数。1.3用矢量量化聚类法生成码本我们将每个待识的说话人看作是一个信源,用一个码本来表征。码本是从该说话人的训练序列中提取的MFCC特征矢量聚类而生成。只要训练的序列足够长,可认为这个码本有效地包含了说话人的个人特征,而与讲话的内容无关。本系统采用基于分裂的LBG的算法设计VQ码本,(1,2,,)kXkK为训练序列,B为码本。5具体实现过程如下:1.取提取出来的所有帧的特征矢量的型心(均值)作为第一个码字矢量B1。2.将当前的码本Bm根据以下规则分裂,形成2m个码字。)1()1({mmmmBBBB(4)其中m从1变化到当前的码本的码字数,ε是分裂时的参数,本文ε=0.01。3.根据得到的码本把所有的训练序列(特征矢量)进行分类,然后按照下面两个公式计算训练矢量量化失真量的总和[]nD以及相对失真(n为迭代次数,初始n=0,[1]D=∞,B为当前的码书),若相对失真小于某一阈值ε,迭代结束,当前的码书就是设计好的2m个码字的码书,转5。否则,转下一步。量化失真量和:()1min(,)KnkkDdXB(5)相对失真:(1)||nnnDDD(6)4.重新计算各个区域的新型心,得到新的码书,转3。5.重复2,3和4步,直到形成有M个码字的码书(M是所要求的码字数),其中D0=10000。1.4VQ的说话人识别设是未知的说话人的特征矢量1{,,}TXX,共有T帧是训练阶段形成的码书,表示码书第m个码字,每一个码书有M个码字。再计算测试者的平均量化失真D,并设置一个阈值,若D小于此阈值,则是原训练者,反之则认为不是原训练者。11]min[/1),(jMmmjTDBxd(7)2.TheProgram在具体的实现过程当中,采用了matlab软件来帮助完成这个项目。在matlab中主要由采集,分析,特征提取,比对几个重要部分。以下为在实际的操作中,具体用到得函数关系和作用一一列举在下面。62.1函数关系主要有两类函数文件Train.m和Test.m在Train.m调用Vqlbg.m获取训练录音的vq码本,而Vqlbg.m调用mfcc.m获取单个录音的mel倒谱系数,接着mfcc.m调用Melfb.m---将能量谱通过一组Mel尺度的三角形滤波器组。在Test.m函数文件中调用Disteu.m计算训练录音(提供vq码本)与测试录音(提供mfcc)mel倒谱系数的距离,即判断两声音是否为同一录音者提供。Disteu.m调用mfcc.m获取单个录音的mel倒谱系数。mfcc.m调用Melfb.m---将能量谱通过一组Mel尺度的三角形滤波器组。2.2具体代码说明2.2.1函数mffc:functionr=mfcc(s,fs)---m=100;n=256;l=length(s);nbFrame=floor((l-n)/m)+1;%沿-∞方向取整fori=1:nforj=1:nbFrameM(i,j)=s(((j-1)*m)+i);%对矩阵M赋值endendh=hamming(n);%加hamming窗,以增加音框左端和右端的连续性M2=diag(h)*M;fori=1:nbFrameframe(:,i)=fft(M2(:,i));%对信号进行快速傅里叶变换FFTendt=n/2;tmax=l/fs;m=melfb(20,n,fs);%将上述线性频谱通过Mel频率滤波器组得到Mel频谱,下面在将其转化成对数频谱n2=1+floor(n/2);z=m*abs(frame(1:n2,:)).^2;r=dct(log(z));%将上述对数频谱,经过离散余弦变换(DCT)变换到倒谱域,即可得到Mel倒谱系数(MFCC参数)2.2.2函数disteu---计算测试者和模板码本的距离functiond=disteu(x,y)[M,N]=size(x);%音频x赋值给【M,N】[M2,P]=size(y);%音频y赋值给【M2,P】if(M~=M2)error('不匹配!')%两个音频时间长度不相等end7d=zeros(N,P);if(NP)%在两个音频时间长度相等的前提下copies=zeros(1,P);forn=1:Nd(n,:)=sum((x(:,n+copies)-y).^2,1);endelsecopies=zeros(1,N);forp=1:Pd(:,p)=sum((x-y(:,p+copies)).^2,1)';end%%成对欧氏距离的两个矩阵的列之间的距离endd=d.^0.5;2.2.3函数vqlbg---该函数利用矢量量化提取了音频的vq码本functionr=vqlbg(d,k)e=.01;r=mean(d,2);dpr=10000;fori=1:log2(k)r=[r*(1+e),r*(1-e)];while(1==1)z=disteu(d,r);[m,ind]=min(z,[],2);t=0;forj=1:2^ir(:,j)=mean(d(:,find(ind==j)),2);x=disteu(d(:,find(ind==j)),r(:,j));forq=1:length(x)t=t+x(q);endendif(((dpr-t)/t)e)break;elsedpr=t;endendend2.2.4函数test---functionfinalmsg=test(testdir,n,code)fork=1:n%readtestsoundfileofeachspeaker8file=sprintf('%ss%d.wav',testdir,k);[s,fs]=wavread(file);v=mfcc(s,fs);%得到测试人语音的mel倒谱系数distmin=4;%阈值设置处%就判断一次,因为模板里面只有一个文件d=disteu(v,code{1});%计算得到模板和要判断的声音之间的“距离”dist=sum(min(d,[],2))/size(d,1);%变换得到一个距离的量%测试阈值数量级msgc=sprintf('与模板语音信号的差值为:%10f',dist);disp(msgc);%此人匹配ifdist=distmin%一个阈值,小于阈值,则就是这个人。msg=sprintf('第%d位说话者与模板语音信号匹配,符合要求!\n',k);finalmsg='此位说话者符合要求!';%界面显示语句,可随意设定disp(msg);end%此人不匹配ifdistdistminmsg=sprintf('第%d位说话者与模板语音信号不匹配,
本文标题:Matlab平台基于VQ的语者识别系统
链接地址:https://www.777doc.com/doc-5951649 .html