Matlab基于VQ的语者识别系统含所有代码.docx
- 文档编号:26726605
- 上传时间:2023-06-22
- 格式:DOCX
- 页数:17
- 大小:218.13KB
Matlab基于VQ的语者识别系统含所有代码.docx
《Matlab基于VQ的语者识别系统含所有代码.docx》由会员分享,可在线阅读,更多相关《Matlab基于VQ的语者识别系统含所有代码.docx(17页珍藏版)》请在冰豆网上搜索。
Matlab基于VQ的语者识别系统含所有代码
Matlab基于VQ的语者识别系统(含所有代码)
Summary
Abstract:
语者识别即为判定说话的人是不是他的利用者。
本组用基于VQ的语者识别系统系统模型,通过提取Mel倒谱系数,制作模板码本与测试者相应参数进行对照,依照阈值判定,不同最小的那么以为匹配原训练模板,即测试者与训练者为同一人,不然以为不是同一人。
通过此进程实现语者识别功能。
在功能上分为两大部份,语者判定和实施分辨。
Contents
1.Introduction……………………………………………………..3
1.1语者识别的概念…………………………………………….3
1.2特点参数的提取…………………………………………….4
1.3用矢量量化聚类法生成码本……………………………….4
1.4VQ的说话人识别……………………………………….....5
2.TheProgram…………………………………………………….6
2.1函数关系…………………………………………………….6
2.2代码说明…………………………………………………….6
2.2.1函数mfcc……………………………………………….6
2.2.2函数disteu……………………………………………...6
2.2.3函数vqlbg……………………………………………....7
2.2.4函数test…………………………………………………8
2.2.5函数testDB……………………………………………...8
2.2.6函数train……………………………………………….9
2.2.7函数melfb……………………………………………….9
3.Results&Discussion…………………………………………….10
4.FurtherWork……………………………………………………..12
1.Introduction
关于语者识别:
在生物辨识技术中,语者辨识是利用人类最自然的口语表达作为辨识身分的依据。
语者辨识一样分为语者识别及语者确认,前者是要辨识说话者是谁,后者那么是判定说话的人是不是他所宣称的利用者,本项目的研究主题是后者。
语者确认常被视为一个假说测定问题,利用似然比例测试方式来解:
空假说表示说话者为真正的利用者,替代假说表示其为冒充者。
咱们能够搜集特定利用者的语音数据来训练空假说模型,但替代假说牵涉未知的冒充者,较难模型化。
针对此点,传统的作法是搜集很多人的语音,训练一个通用背景模型,或是几位与目标利用者声音相似的人的语音,训练数个背景模型,再利用取极大值、取极小值、算数平均或几何平均等方式来结合个别的模型分数。
基于VQ的语者识别系统系统模型
基于VQ的说话人识别系统,矢量量化起着双重作用。
在训练时期,把每一个说话者所提取的特点参数进行分类,产生不同码字所组成的码本。
在识别(匹配)时期,咱们用VQ方式计算平均失真测度(本系统在计算距离d时,采纳欧氏距离测度),从而判定说话人是谁。
语音识别系统结构框图如图1所示。
图1语音识别系统结构框图
1.1语者识别的概念
语者识别确实是依照说话人的语音信号来判别说话人的身份。
语音是人的自然属性之一,由于说话人发音器官的生理不同和后天形成的行为不同,每一个人的语音都带有强烈的个人色彩,这就使得通过度析语音信号来识别说话人成为可能。
用语音来辨别说话人的身份有着许多独特的优势,如语音是人的固有的特点,可不能丢失或遗忘;语音信号的搜集方便,系统设备本钱低;利用网络还可实现远程客户效劳等。
因此,近几年来,说话人识别愈来愈多的受到人们的重视。
与其他生物识别技术如指纹识别、手形识别等相较较,说话人识别不仅利用方便,而且属于非接触性,容易被用户同意,而且在已有的各类生物特点识别技术中,是唯一能够用作远程验证的识别技术。
因此,说话人识别的应用前景超级普遍:
今天,说话人识别技术已经关系到多学科的研究领域,不同领域中的进步都对说话人识别的进展做出了奉献。
说话人识别技术是集声学、语言学、运算机、信息处置和人工智能等诸多领域的一项综合技术,应用需求将十分广漠。
在费力语音信号的时候如何提取信号中关键的成份尤其重要。
语音信号的特点参数的好坏直接致使了分辨的准确性。
1.2特点参数的提取
关于特点参数的选取,咱们利用mfcc的方式来提取。
MFCC参数是基于人的听觉特性利用人听觉的屏蔽效应,在Mel标度频率域提掏出来的倒谱特点参数。
MFCC参数的提取进程如下:
1.对输入的语音信号进行分帧、加窗,然后作离散傅立叶变换,取得频谱散布信息。
设语音信号的DFT为:
(1)
其中式中x(n)为输入的语音信号,N表示傅立叶变换的点数。
2.再求频谱幅度的平方,取得能量谱。
3.将能量谱通过一组Mel尺度的三角形滤波器组。
咱们概念一个有M个滤波器的滤波器组(滤波器的个数和临界带的个数相近),采纳的滤波器为三角滤波器,中心频率为f(m),m=1,2,3,···,M
本系统取M=100。
4.计算每一个滤波器组输出的对数能量。
(2)
其中
为三角滤波器的频率响应。
5.通过离散弦变换(DCT)取得MFCC系数。
MFCC系数个数通常取20—30,常常不用0阶倒谱系数,因为它反映的是频谱能量,故在一样识别系统中,将称为能量系数,并非作为倒谱系数,本系统选取20阶倒谱系数。
1.3用矢量量化聚类法生成码本
咱们将每一个待识的说话人看做是一个信源,用一个码本来表征。
码本是从该说话人的训练序列中提取的MFCC特点矢量聚类而生成。
只要训练的序列足够长,能够为那个码本有效地包括了说话人的个人特点,而与发言的内容无关。
本系统采纳基于割裂的LBG的算法设计VQ码本,
为训练序列,B为码本。
具体实现进程如下:
1.取提掏出来的所有帧的特点矢量的型心(均值)作为第一个码字矢量B1。
2.将当前的码本Bm依照以下规那么割裂,形成2m个码字。
(4)
其中m从1转变到当前的码本的码字数,ε是割裂时的参数,本文ε=0.01。
3.依照取得的码本把所有的训练序列(特点矢量)进行分类,然后依照下面两个公式计算训练矢量量化失真量的总和
和相对失真(n为迭代次数,初始n=0,
=∞,B为当前的码书),假设相对失真小于某一阈值ε,迭代终止,当前的码书确实是设计好的2m个码字的码书,转5。
不然,转下一步。
量化失真量和:
(5)
相对失真:
(6)
4.从头计算各个区域的新型心,取得新的码书,转3。
5.重复2,3和4步,直到形成有M个码字的码书(M是所要求的码字数),其中D0=10000。
1.4VQ的说话人识别
设是未知的说话人的特点矢量
,共有T帧是训练时期形成的码书,表示码书第m个码字,每一个码书有M个码字。
再计算测试者的平均量化失真D,并设置一个阈值,假设D小于此阈值,那么是原训练者,反之那么以为不是原训练者。
(7)
2.TheProgram
在具体的实现进程当中,采纳了matlab软件来帮忙完成那个项目。
在matlab中要紧由搜集,分析,特点提取,比对几个重要部份。
以下为在实际的操作中,具体用到得函数关系和作用一一列举在下面。
2.1函数关系
要紧有两类函数文件Train.m和Test.m
在Train.m挪用Vqlbg.m获取训练录音的vq码本,而,接着mfcc.m挪用Melfb.m---将能量谱通过一组Mel尺度的三角形滤波器组。
在Test.m函数文件中挪用Disteu.m计算训练录音(提供vq码本)与测试录音(提供mfcc)mel倒谱系数的距离,即判定两声音是不是为同一录音者提供。
。
mfcc.m挪用Melfb.m---将能量谱通过一组Mel尺度的三角形滤波器组。
2.2具体代码说明
2.2.1函数mffc:
functionr=mfcc(s,fs)
---
m=100;
n=256;
l=length(s);
nbFrame=floor((l-n)/m)+1;%沿-∞方向取整
fori=1:
n
forj=1:
nbFrame
M(i,j)=s(((j-1)*m)+i);%对矩阵M赋值
end
end
h=hamming(n);%加hamming窗,以增加音框左端和右端的持续性
M2=diag(h)*M;
fori=1:
nbFrame
frame(:
i)=fft(M2(:
i));%对信号进行快速傅里叶变换FFT
end
t=n/2;
tmax=l/fs;
m=melfb(20,n,fs);%将上述线性频谱通过Mel频率滤波器组取得Mel频谱,下面在将其转化成对数频谱
n2=1+floor(n/2);
z=m*abs(frame(1:
n2,:
)).^2;
r=dct(log(z));%将上述对数频谱,通过离散余弦变换(DCT)变换到倒谱域,即可取得Mel倒谱系数(MFCC参数)
2.2.2函数disteu
---计算测试者和模板码本的距离
functiond=disteu(x,y)
[M,N]=size(x);%音频x赋值给【M,N】
[M2,P]=size(y);%音频y赋值给【M2,P】
if(M~=M2)
error('不匹配!
')%两个音频时刻长度不相等
end
d=zeros(N,P);
if(N
copies=zeros(1,P);
forn=1:
N
d(n,:
)=sum((x(:
n+copies)-y).^2,1);
end
else
copies=zeros(1,N);
forp=1:
P
d(:
p)=sum((x-y(:
p+copies)).^2,1)';
end%%成对欧氏距离的两个矩阵的列之间的距离
end
d=d.^0.5;
2.2.3函数vqlbg
---该函数利用矢量量化提取了音频的vq码本
functionr=vqlbg(d,k)
e=.01;
r=mean(d,2);
dpr=10000;
fori=1:
log2(k)
r=[r*(1+e),r*(1-e)];
while(1==1)
z=disteu(d,r);
[m,ind]=min(z,[],2);
t=0;
forj=1:
2^i
r(:
j)=mean(d(:
find(ind==j)),2);
x=disteu(d(:
find(ind==j)),r(:
j));
forq=1:
length(x)
t=t+x(q);
end
end
if(((dpr-t)/t) break; else dpr=t; end end end 2.2.4函数test --- functionfinalmsg=test(testdir,n,code) fork=1: n%readtestsoundfileofeachspeaker file=sprintf('%ss%d.wav',testdir,k); [s,fs]=wavread(file); v=mfcc(s,fs);%取得测试人语音的mel倒谱系数 distmin=4;%阈值设置处 %就判定一次,因为模板里面只有一个文件 d=disteu(v,code{1});%计算取得模板和要判定的声音之间的“距离” dist=sum(min(d,[],2))/size(d,1);%变换取得一个距离的量 %测试阈值数量级 msgc=sprintf('与模板语音信号的差值为: %10f',dist); disp(msgc); %这人匹配 ifdist<=distmin%一个阈值,小于阈值,那么确实是那个人。 msg=sprintf('第%d位说话者与模板语音信号匹配,符合要求! \n',k); finalmsg='此位说话者符合要求! ';%界面显示语句,可随意设定 disp(msg); end %这人不匹配 ifdist>distmin msg=sprintf('第%d位说话者与模板语音信号不匹配,不符合要求! \n',k); finalmsg='此位说话者不符合要求! ';%界面显示语句,可随意设定 disp(msg); end end 2.2.5函数testDB 那个函数事实上是对数据库一个查询,依照测试者的声音,找相应的文件,而且给出是谁的提示 functiontestmsg=testDB(testdir,n,code) nameList={'童星程','张亦波','郭嘉','刘满','严岔娟','赵超','孝大宇','郝力男'};%那个是咱们组的成员和导师的名单.以便在识别时给出人民 fork=1: n%数据库中每一个说话人的特点 file=sprintf('%ss%d.wav',testdir,k);%找出文件的途径 [s,fs]=wavread(file); v=mfcc(s,fs);%对找到的文件取mfcc变换 distmin=inf; k1=0; forl=1: length(code) d=disteu(v,code{l}); dist=sum(min(d,[],2))/size(d,1); ifdist distmin=dist;%%那个地址和test函数里面一样但多了一个具体语者的识别 k1=l; end end msg=nameList{k1} msgbox(msg); end 2.2.6函数train ---该函数确实是对音频进行训练,也确实是提取特点参数 functioncode=train(traindir,n) k=16;%numberofcentroidsrequired fori=1: n%对数据库中的代码形成码本 file=sprintf('%ss%d.wav',traindir,i); disp(file); [s,fs]=wavread(file); v=mfcc(s,fs);%计算MFCC's提取特点特点,返回值是Mel倒谱系数,是一个log的dct取得的 code{i}=vqlbg(v,k);%训练VQ码本通过矢量量化,取得原说话人的VQ码本 end 2.2.7函数melfb ---确信矩阵的滤波器 functionm=melfb(p,n,fs) f0=700/fs; fn2=floor(n/2); lr=log(1+0.5/f0)/(p+1); %converttofftbinnumberswith0forDCterm bl=n*(f0*(exp([01pp+1]*lr)-1)); 直接转换为FFT的数字模型 b1=floor(bl (1))+1; b2=ceil(bl (2)); b3=floor(bl(3)); b4=min(fn2,ceil(bl(4)))-1; pf=log(1+(b1: b4)/n/f0)/lr; fp=floor(pf); pm=pf-fp; r=[fp(b2: b4)1+fp(1: b3)]; c=[b2: b41: b3]+1; v=2*[1-pm(b2: b4)pm(1: b3)]; m=sparse(r,c,v,p,1+fn2); 3.Results&Discussion 3.1实验进程 咱们的功能分为两部份: 对已经保留的语音进行分辨和实时的判定说话人是不是为同一个人.在前者的实验进程中,先把咱们小组成员和tutor的声音保留成wav的格式,放在一个文件夹中,作为一个检测的数据库.然后对检测者实行识别,系统给出提示是谁.这一部咱们测得的准确率是87.5%. 在第二个功能中,实时的录取一段说话人的声音作为模板,提取mfcc特点参数,随后紧接着进行遇着识别,也确实是让其他人再说相同的话,看是不是是原说话者. 本系统唯一的不足的地方是没有实现对数据库的跟新,相信在以后不久的以后会实现的. 实验进程及具体功能如下: 先打开Matlab使CurrentDirectory为录音及程序所所在的文件夹 再打开文件“enter.m”,点run运行,打开enter界面,点击“打开”按钮进入系统。 (注: 文件包未封装完毕,目前只能通过此方式打开运行。 )(如以下图figure1) 在对数据库中已有的语者进行识别模块: 点击按钮“录音-train”,在4秒内录音训练。 4秒后,能够点击按钮“播放-train” ,播放方才录入的声音。 录音被自动保留在程序文件夹子文件夹“测试”中,命名为“s1.wav”。 随后点击”语音库录制模板”,这一步确实是对语音库里的声音提取特点值.然后再点击”语者判定”,这一步是把”测试”文件夹中刚录制的声音提取特点值值与数据库中声音的特点值进行对照,告知谁是语者. 在实时语者识别模块: 点击实时录制模板上的“录音-train”按钮,是把新语者的声音以wav格式寄存在”实时模板”文件夹中,接着点击实时录制模板,把新的模板提取特点值。 随后点击实时语者识别模板上的“录音-train”按钮,是把语者的声音以wav格式寄存在”测试”文件夹中,再点击“实时语者识别”,在对测得的声音提取特点值的同时,和实时模板进行比对,然后得出是不是是实时模板中的语者。 另外面板上的播放按钮都是播放相对应左侧录取的声音。 想要测量多次,只要接着录音,自动保留,然后程序比对音频就能够够。 退出只要点击菜单File/Exit,退出程序。 程序运行截图: (fig.1)登入界面 (fig.2)系统界面(运行前) (Fig.3)系统界面(运行后) 3.2讨论 通过组内运行结果说明,成员7个人加上tutor8个人的识别当中,识别正确的有7个,识别率为87.5%! 而在实时分辨中,识别率略有下降,但也有89.76%的准确率。 系统的不足的地方是不能对数据库进行更新,但相信尔后加以改良必然能够完成。 通过计算得出: 识别率: 所有人各测试一次的准确率为87.50% 识别精度: 个人多次测试的准确率为80.0% 4.Furtherwork 实验说明,该系统能较好地进行语音的识别,同时,基于矢量量化技术(VQ)的语音识别系统具有分类准确,存储数据少,实时响应速度快等综合性能好的特点. 矢量量化技术在语音识别的应用方面,尤其是在孤立词语音识别系统中取得专门好的应用,专门是有限状态矢量量化技术,关于语音识别更为有效。 目前程序主体已经完成,核心功能也已实现。 后期工作要紧集中在程序封装及优化调整。 界面的设计加倍美观和人性化;程序功能方面打算增加多人密码登入功能,以实现具有现实应用意义的语者识别系统可做为平安门出入登入系统。 但也有其他的地址还需要值得完善的。 1.口音问题: 各地址都有各自的方言,用现有的提取特点的方式是不是能有效地取到特点,这是一个问题。 2.系统自适应: 系统在各类环境中可否达到必然的准确判定 3.测试者受限: 由于在数据库中没有更新这一项,因此对语者分辨存在必然的局限性,往后加上数据库更新功能。 4.话音特点与说话人个性特点的分离: 在特点分离上是不是还有更有效地址法
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- Matlab 基于 VQ 识别 系统 所有 代码