说话人语音识别.docx
- 文档编号:4606883
- 上传时间:2022-12-07
- 格式:DOCX
- 页数:20
- 大小:169.03KB
说话人语音识别.docx
《说话人语音识别.docx》由会员分享,可在线阅读,更多相关《说话人语音识别.docx(20页珍藏版)》请在冰豆网上搜索。
说话人语音识别
数字信号处理》课程设计
题
目:
基于MATLAB的说话人语音识别
班
级:
信号与信息处理研一
学
号:
2150130425
姓
名:
湛西羊
任课教师:
黄建军
完成时间:
2015/12/31
一、系统设计任务及要求⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯3
二、语音识别的简介⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯3
三、语音识别原理⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯3
3.1语音识别系统总体框架⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯4
3.2语音信号预处理⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯4
3.3特征参数的提取⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯6
3.4用矢量量化聚类法生成码本⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯7
3.5VQ的说话人识别⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯8三、仿真实现⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯9
五、总结⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯9
附录1⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯10
附录2⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯14
一.系统设计任务及要求
1.用MATLAB实现50个特定人的语音识别功能;
2.语音识别的正确率在百分之九十以上;
二.语音识别的简介
说话人识别就是根据说话人的语音信号来判别说话人的身份。
语音是人的自然属性之一,由于说话人发音器官的生理差异以及后天形成的行为差异,每个人的语音都带有强烈的个人色彩,这就使得通过分析语音信号来识别说话人成为可能。
用语音来鉴别说话人的身份有着许多独特的优点,如语音是人的固有的特征,不会丢失或遗忘;语音信号的采集方便,系统设备成本低;利用电话网络还可实现远程客户服务等。
因此,近几年来,说话人识别越来越多的受到人们的重视。
与其他生物识别技术如指纹识别、手形识别等相比较,说话人识别不仅使用方便,而且属于非接触性,容易被用户接受,并且在已有的各种生物特征识别技术中,是唯一可以用作远程验证的识别技术。
因此,说话人识别的应用前景非常广泛:
今天,说话人识别技术已经关系到多学科的研究领域,不同领域中的进步都对说话人识别的发展做出了贡献。
说话人识别技术是集声学、语言学、计算机、信息处理和人工智能等诸多领域的一项综合技术,应用需求将十分广阔。
说话人识别系统设计中的根本问题是如何从语音信号中提取表征人的基本特征。
即语音特征矢量的提取是整个说话人识别系统的基础,对说话人识别的错误拒绝率和错误接受率有着极其重要的影响。
同语音识别不同,说话人识别利用的是语音信号中的说话人信息,而不考虑语音中的字词意思,它强调说话人的个性。
因此,单一的语音特征矢量很难提高识别率,所以语音信号的时候如何提取信号中关键的成分尤为重要。
语音信号的特征参数的好坏直接导致了辨别的准确性。
系统在说话人的识别中采用基于Mel的频率倒谱系数的模板匹配的说话人识别方法。
具体的实现过程当中,采用了matlab软件来帮助完成这个项目。
在matlab中实现采集,分析,特征提取,配对,识别。
三.语音识别原理
3.1语音识别系统总体框架
说话人识别系统的总体结构如图1所示。
首先通过语音的录制作为输入信号,输入的模拟语音信号要进行预处理,包括预滤波、采样和量化、加窗、端点检测、预加重等等。
经过预处理后,接下来就是重要的一环:
特征参数提取。
具体要求是:
(1)提取的特征参数要能有效地代表语音特征,具有很好的区分性。
(2)各阶参数之间有良好的独立性。
(3)特征参数要计算方便,最好有高效的计算方法,以保证语音识别的实时实现。
测度估计识别决策识别结果
图1说话人语音识别系统总体框图
考虑到数据量、实时性以及识别率的问题,本文采用基于矢量量化的方法识别语音。
对于特征参数的选取,我们使用mfcc的方法来提取。
3.2语音信号预处理
3.2.1滤波
在模/数转换之前,通常要进行滤波处理,滤波的作用主要有两个:
一是用高通滤波器抑制50Hz电源噪声的干扰;二是用低通滤波器滤除语音信号中频率分量超过采样频率一半的部分,防止采样信号的混叠。
3.2.2模数转换将原始采集得来的语音模拟信号转换为计算机能够处理的数字信号,就需要对其进行数字化,此过程成为数/模转换,最常见的方式就是脉冲编码调制(PalseCodeModulation),它的过程分为采样、量化和编码;采样是对模拟信号进行周期性的扫描,将实际上连续变化的信号转换为时间上离散的信号,从而便于表示为计算机的语言。
根据Nyquist采样定理,当采样频率高于信号最高频率的一倍时,原来的连续信号就可以从采样样本中完全重建出来。
人耳可以分辨的声音频率范围为(20Hz,20KHz),因此,当采样的频率高于40KHz时,采样的过程就不会丢失信息,但考虑到设备的实际性能,且说话人语音频率主要集中在3.4KHz,故本系统以8KHz为采样率。
量化就是把经过采样得到的瞬时值将其幅度离散,即用一组规定的电平,把瞬时抽样值用最接近的电平值来表示出来,最终用整数倍的数字表示的过程。
经过时间上的采样后,连续的模拟信号变成了离散信号,再经过振幅的量化,把量化好的采样值用二进制代码表示出来,就转换成了数字信号。
编码:
就是用一组二进制码组来表示每一个有固定电平的量化值。
然而,实际上量化是在编码过程中同时完成的,故编码过程也就称为模/数转换,该系统以实验者50人的声音为分析样本,将语音信号都保存为符合RIFF规范的wav文件格式,便于在windows环境下处理。
语音信号是利用PC机录制,音频文件采用8000kHz采样频率、16bit量化、单声道的PCM录音,用MATLAB本身wavread函数来读取语音文件,直接将语音数据转化为数字信号。
3.2.3预加重、分帧及加窗预处理是指对语音信号的特殊处理:
预加重,分帧处理。
预加重的目的是提升高频部分,使信号的频谱变得平坦,以便于进行频谱分析或声道参数分析。
用具有6dB/倍频程的提升高频特性的预加重数字滤波器实现。
虽然语音信号是非平稳时变的,但是可以认为是局部短时平稳。
故语音信号分析常分段或分帧来处理。
在语音参数计算之前,一般要将其通过一个预加重滤波器,预加重目的是为了对语音的高频部分进行加重增加其高频分辨率,其函数为:
x=filter([1-0.9375],1,x);“帧”,将语音信号截断的过程称之为“分帧”。
为了保持帧之间的平滑过渡,常相邻的两帧之间有少部分的重叠,这些重叠的部分叫做帧移。
在以后的语音信号识别过程中,都是依赖于每一帧多对应的数据序列所描述的语音信号特征来处理。
分帧操作主要是提取语音短时特性便于建模,一般取帧长30ms,帧移10ms;在对语音信号进行截断处理形成帧后,通常会产生泄露(Gibbs)现象,为了防止此种现象的发生,我们通常运用一个长度有限的窗函数w(n)对语音短段进行变换或运算。
对于语音信号的每一帧来说,窗函数的宽度会影响语音信号的平滑性。
越宽的窗函数,对信号的平滑作用就会越显著,效果越好,窗函数过窄,则基本
对信号不起作用。
语音信号经过加窗处理后,两端的坡度会减小,窗口边缘两端也不会引起急剧变化,截取出的语音波形两端就会缓慢的过渡为零,这就有
效的减小语音帧的截断效应。
因此对于语音信号时域分析来说,窗函数的选择很重要,虽说矩形窗平滑比较好,但是容易丢失波形细节,并有可能造成泄漏现象。
而Hamming窗可以有效的克服泄漏现象。
所以在加窗方面常以Hamming窗为主,即:
3.3特征参数的提取
对于特征参数的选取,我们使用mfcc的方法来提取。
MFCC(Mel-sealedCepstrumCoefficients),即Mel频率倒谱参数,也叫做Mel尺度倒谱参数。
MFCC参数是基于人的听觉特性利用人听觉的屏蔽效应,在Mel标度频率域提取出来的倒谱特征参数。
这个参数的提取是将语音从时域变换至倒谱域,通过构造人的听觉模型,用滤波器组模仿人耳的滤波,语音通过滤波器组的输出为语音基本特征参数,然后做傅里叶变换
在语音识别处理信号过程中,MFCC参数是按照帧计算的。
其特征提取及计算过程如图2所示。
图2MFCC特征提取及计算流程
MFCC参数的提取过程如下:
1.对输入的语音信号进行分帧、加窗,然后作离散傅立叶变换,获得频谱分布信息。
设语音信号的DFT为:
N1j2nk
Xa(k)x(n)eN,0kN1
n1
(1)
其中式中x(n)为输入的语音信号,N表示傅立叶变换的点数。
2.再求频谱幅度的平方,得到能量谱。
3.将能量谱通过一组Mel尺度的三角形滤波器组。
我们定义一个有M个滤波器的滤波器组(滤波器的个数和临界带的个数相近),采用的滤波器为三角滤波器,中心频率为f(m),m=1,2,3,···,M,本系统取M=100。
4.计算每个滤波器组输出的对数能量。
N1
2
S(m)ln(|Xa(k)|2Hm(k)),
k1
0mM1
(2)
其中Hm(k)为三角滤波器的频率响应。
5.经过离散弦变换(DCT)得到MFCC系数。
M1
C(n)S(m)cos(n(m0.5/m)),(3)
m0
0nN1
MFCC系数个数通常取20—30,常常不用0阶倒谱系数,因为它反映的是频谱能量,故在一般识别系统中,将称为能量系数,并不作为倒谱系数,本系统选取20阶倒谱系数。
3.4用矢量量化聚类法生成码本
在识别(匹配)阶段,我们用VQ方法计算平均失真测度(本系统在计算距离d时,采用欧氏距离测度),从而判断说话人是谁。
基于VQ的说话人识别系统,矢量量化起着双重作用。
在训练阶段,把每一个说话者所提取的特征参数进行分类,产生不同码字所组成的码本。
我们将每个待识的说话人看作是一个信源,用一个码本来表征。
码本是从该说话人的训练序列中提取的MFCC特征矢量聚类而生成。
只要训练的序列足够长,可认为这个码本有效地包含了说话人的个人特征,而与讲话的内容无关。
本系统采用基于分裂的LBG的算法设计VQ码本,Xk(k1,2,,K)为训练序列,B为码本。
具体实现过程如下:
1.取提取出来的所有帧的特征矢量的型心(均值)作为第一个码字矢量B1。
2.将当前的码本Bm根据以下规则分裂,形成2m个码字。
{BmBm
(1)
4)
{BmBm
(1)
n=0,D=∞,B为当前的码书),若相对失真小于某一阈值ε,迭代结束,前的码书就是设计好的2m个码字的码书,转5。
否则,转下一步。
量化失真量和:
K
D(n)mind(Xk,B)
k1(5)
相对失真:
D(n1)Dn
|n|
Dn(6)
4.重新计算各个区域的新型心,得到新的码书,转第3步。
5.重复2,3和4步,直到形成有M个码字的码书(M是所要求的码字数),其中D0=10000。
3.5VQ的说话人识别
语音识别系统结构框图如图3所示。
设是未知的说话人的特征矢量
{X1,,XT},共有T帧是训练阶段形成的码书,表示码书第m个码字,每一个码书有M个码字。
再计算测试者的平均量化失真D,并设置一个阈值,若D小于此阈值,则是原训练者,反之则认为不是原训练者。
D1/Tmin[d(xj,Bm)]
7)
j1
1mM
图3语音识别系统结构框图
四.仿真实现我们的系统分为两部分:
第一部分是先把50个人的声音保存成.wav的格式,放在一个文件夹中,作为说话人的声音模板检测的数据库。
第二部分是对检测者实行识别对已经保存的50个数字的语音提取mfcc特征者,进行辨别和实时的判断说话人是否为同一人。
在train.m调用Vqlbg.m获取训练录音的vq码本,而vqlbg.m调用mfcc.m获取单个录音的mel倒谱系数,接着mfcc.m调用melfb.m---将能量谱通过一组Mel尺度的三角形滤波器组。
在test.m函数文件中调用disteu.m计算训练录音(提供vq码本)与测试录音(提供mfcc)mel倒谱系数的距离,即判断两声音是否为同一录音者提供。
Disteu.m调用mfcc.m获取单个录音的mel倒谱系数。
mfcc.m调用Melfb.m---将能量谱通过一组Mel尺度的三角形滤波器组。
五总结
在matlab环境下实现基于矢量量化的说话人识别系统。
在实时录音的情况下,利用该说话人识别系统,对不同的人的1s~7s的语音进行辨识。
实现与文本无关的自动说话人确认的实时识别。
实验表明,该系统能较好地进行语音的识别,识别正确率达90%以上。
同时,基于矢量量化技术(VQ)的语音识别系统具有分类准确,存储数据少,实时响应速度快等综合性能好的特点.
原始语音s1的波形
543
000
附录1
40200-20
406080
1012
0.00度幅
00
50
44
0
50
3
35
30
25
20
0
50
2
0
50
zH/率频
-100
00.511.522.5时间/s
150
100
50
1000
500
0
00.511.522.5
时间/s
Mel滤波
2
1.8
1.6
1.4
1.2
1
0.8
0.6
0.4
0.2
0
500
10001500
20002500300035004000
频率/Hz
能量对数谱(第=43帧,帧长=128,帧数=471)
0
-50
-100
-150
012
时间/s
能量对数谱(第
数=117)
zH/率频
0
1时间/s
2
50
0
-50
-100
-150
2Dplotofaccousticvectors
说话人1
说话人2
-4-3-2-1012345
5thDimension
2Dplotofaccousticvectors
说话人1
5thDimension
4000
/H率频
3500
3000
2500
2000
1500
1000
500
0
原始能量谱
00.5
11.5
22.5
时间/s
450
400
350
300
250
200
150
100
50
目数器波滤
20
18
16
14
12
10
8
6
4
2
0
通过mel倒谱修正后的能量谱
1
1.5
22.5
时间/s
700
600
500
400
300
200
100
00.5
附录2
functionM3=blockFrames(s,fs,m,n)
%blockFrames:
%Putsthesignalintoframes分帧函数
%Inputs:
%scontainsthesignaltoanalize语音信号
%fsisthesamplingrateofthesignal语音采样频率
两帧之间
%misthedistancebetweenthebeginningsoftwoframes
的距离
包含了所有的帧
%nisthenumberofsamplesperframe
%Output:
%M3isamatrixcontainingalltheframesl=length(s);%语音信号的长度
nbFrame=floor((l-n)/m)+1;
fori=1:
n
forj=1:
nbFrame
M(i,j)=s(((j-1)*m)+i);
end
end
h=hamming(n);
M2=diag(h)*M;%加汉明窗
fori=1:
nbFrame
M3(:
i)=fft(M2(:
i));
End
每帧的采样点数
数组形式,
%帧数
%逐帧扫描
%短时傅立叶变换
functioncode=train(traindir,n)
%计算wav文件的VQ码码本
%SpeakerRecognition:
TrainingStage
%Input:
soundfiles
%traindir:
stringnameofdirectorycontainsalltrain
%n:
numberoftrainfilesintraindir
%Output:
%code:
trainedVQcodebooks,code{i}fori-thspeaker
%Note:
%Soundfilesintraindirissupposedtobe:
%s1.wav,s2.wav,...,sn.wav
%Example:
%>>code=train('C:
\data\train\',8);
k=16;%numberofcentroidsrequired
fori=1:
n%trainaVQcodebookforeachspeaker
file=sprintf('%ss%d.wav',traindir,i);
disp(file);
[s,fs]=wavread(file);
v=mfcc(s,fs);code{i}=vqlbg(v,k);
end
%ComputeMFCC's
%TrainVQcodebook
functiond=disteu(x,y)
oftwomatrices测
betweentwocolumn
%DISTEUPairwiseEuclideandistancesbetweencolumns试失真度
%Input:
%x,y:
Twomatriceswhoseeachcolumnisanavectordata.
%Output:
%d:
Elementd(i,j)willbetheEuclideandistancevectorsX(:
i)andY(:
j)
%Note:
%TheEuclideandistanceDbetweentwovectorsXandYis:
%D=sum((x-y).^2).^0.5
[M,N]=size(x);
[M2,P]=size(y);
if(M~=M2)
error('不匹配!
')
end
d=zeros(N,P);
if(N
copies=zeros(1,P);
forn=1:
N
d(n,:
)=sum((x(:
n+copies)-y).^2,1);
end
else
copies=zeros(1,N);
forp=1:
P
d(:
p)=sum((x-y(:
p+copies)).^2,1)';
end
end
d=d.^0.5;
function
m=melfb(p,n,fs)
%MELFB
Determinematrixforamel-spacedfilterbank
%Inputs:
pnumberoffiltersinfilterbank
滤波器数
%
nlengthoffftFFT
变换的点数
%
fssamplerateinHz
采样频率
%Outputs:
xa(sparse)matrix
containingthe
filterbank
%
size(x)=[p,1+floor(n/2)]
%Usage:
Forexample,tocomputethemel-scalespectrumofa
amplitudes
%
colum-vectorsignals,withlengthnandsampleratefs:
%
%
f=fft(s);
%
m=melfb(p,n,fs);
%
n2=1+floor(n/2);
%
z=m*abs(f(1:
n2)).^2;
%
%
zwouldcontain
psamplesof
thedesiredmel-scale
%
%
Toplotfilterbankse.g.:
%
%
plot(linspace(0,
(12500/2),
129),melfb(20,256,
%
title('Mel-spaced
filterbank'),
xlabel('Frequency
spectrum
12500)'),
(Hz)');
f0=700/fs;
fn2=floor(n/2);
lr=log(1+0.5/f0)/(p+1);
%converttofftbinnumberswith0forDCtermbl=n*(f0*(exp([01pp+1]*lr)-1));
b1=floor(bl
(1))+1;
b2=ceil(bl
(2));
b3=floor(bl(3));b4=min(fn2,ceil(bl(4)))-1;
pf=log(1+(b1:
b4)/n/f0)/lr;
fp=floor(pf);pm=pf-fp;
r=[fp(b2:
b4)1+fp(1:
b3)];
c=[b2:
b41:
b3]+1;
v=2*[1-pm(b2:
b4)pm(1:
b3)];
m=sparse(r,c,v,p,1+fn2);
functionr=mfcc(s,fs)%s声音信号的向量fs取样频率%MFCC
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 说话 人语 识别