声纹识别Word文档格式.docx
- 文档编号:17905035
- 上传时间:2022-12-12
- 格式:DOCX
- 页数:24
- 大小:363.22KB
声纹识别Word文档格式.docx
《声纹识别Word文档格式.docx》由会员分享,可在线阅读,更多相关《声纹识别Word文档格式.docx(24页珍藏版)》请在冰豆网上搜索。
虽然人的听觉系统分辨说话人的机理不一定是最佳的声纹识别方法,但是在目前的技术下,如果能达到人类说话人的水平,也是相当可观的。
MFCC是基于短时傅里叶变换谱分析,并考虑人类的听觉特性后得到的一种倒频特征。
心理学的研究进一步表明,人类对于声音音调的感觉都不是线性的,这必然导致人们去定义新的频率单位。
符合人的听觉特性的频率则以Mel或Bark作为单位;
就声学观点而言,每一位语者声学特征能分出很多类别,诸如:
鼻音,摩擦音,元音等,类别还可能更细致,而且每一个声学类别下又有广阔的语音空间,查阅资料发现,高斯混合模型(GMM)能好的二者兼顾,于是可以建立GMM模型对每位语者的声学特征进行仿真。
基于上面两问的模型,用matlab编程对实际的数据进行识别率的分析即可;
传统的K-means算法在聚类过程中采取几何距离就近原则,这只有当类的自然布为球状或接近于球状时,也就是说当类中各矢量的分布接近于相等时才能取得识别效果。
而语音信号是近似椭圆状的正态分布,各矢量的分布不等,若用传统K.means算法作为GMM的初始化方法,将会忽略特征矢量各维分量对识别的影响,无法得到令人满意的识别结果。
为此,对传统K。
means算法进行了改进,语音信号各矢量的分布不同,且对于不同的说话人这种差别的程度又不一样。
好的特征矢量应该对同类语音的离散程度小,对不同类语音的离散程度大。
三、模型假设与符号说明
3.1模型假设:
(1)本文选用文本无关的声纹识别文件;
(2)假设提供的数据完整、可靠、有效;
(3)假设查阅的资料和一些结论正确可靠;
3.2符号说明:
:
预处理后的语音信号。
将预处理后的语音信号进行短时傅里叶变换后得到的频谱。
频率滤波器个数。
作对数转换后的Mel频谱。
频谱倒谱系数。
四、模型的建立及求解
4.1问题一模型的建立与求解:
4.1.1层次结构模型建立
图1层次结构示意图
首先分析准则层对目标层的影响,设有n个因素(x1,x2,…xn),用aij表示xi和xj对上层目标的影响比。
相对重要程度:
aij
定义
1
若xi等价于xj:
赋值1
3
若xi比xj重要:
赋值3
5
若xi比xj重要得多:
赋值5
7
若xi远远比xj重要:
赋值7
9
若xi是最重要的
2,4,6,8
重要程度等级介于xi和xj之间
1/2,1/3,..,1/9
对应于以上等级的xi和xj之间的关系
表1相对重要程度aij取值情况
由网络资源查询可对比声学特征,语音习惯,个人特点,鼻音,沙哑音五个元素得到以下系数矩阵:
沙哑音
鼻音
个人特点
声学特点
语音习惯
1/5
1/9
1/7
从而得到正反矩阵:
A=
利用MATLAB编程求得矩阵A的最大特征值;
对正互反矩阵进行一致性检验,采用T.L.Saaty一致性指标:
CI=
一致性对比率CR=
=
=0.0777<
0.1,即通过一致性检验。
标准化特征向量a
(2)=(0.03080.09270.09270.48390.2999)
即当前沙哑音,鼻音,个人特点,声学特征,语音习惯的权重为:
(0.03080.09270.09270.48390.2999)
下面构造方案层对准则层的每个准则的正互反矩阵:
B1=
B2=
B4=
B5=
所有CRk均小于0.1,均通过一致性检验。
我们把各方案对目标的权向量,称为组合权向量。
记做W
(2)=
所以方案Ck在目标中的组合权中应该为a
(2)与a(3)对应向量的两两乘积之和,因此可得C1,C2,C3,C4,C5,C6,C7,C8在目标中的组合权重。
从而得到方案层对准则层组合权向量:
a(3)=(0.0011,0.0025,0.0025,0.3295,0.2257,0.3826,0.0536)
结论:
由当前权重比例来看,建立代表说话人身份的语音特征模型中的8个影响因素声学特征占有最大的权重。
而语者的声学特征能用Mel倒频谱系数(MFCC)很好的描述。
所以接下来通过matlab编程从源语音数据中提取说话人特征(Mel倒频谱系数)从而建立代表语者身份的语音特征模型。
4.1.2语音特征模型的建立与求解
本文采用识别性能较好且能充分模拟人耳听觉感知特性的Mel频率倒谱系数(MFCC),提取的各过程如下:
图1MFCC系数提取流程图
1.由于语音信号的时变特性使得特征参数提取必须在一小段语音上进行,因此在特征参数提取前先对采集到的语音信号进行预加重、加窗和分帧等预处理。
此部分的处理用matlab完成,程序代码在附录中。
2.将预处理后的语音信号x(n)进行快速傅里叶转变(FFT)得到频谱X(k):
(1)
其中,N为傅里叶变换的样点数。
本论文中N取256
3.求频谱X(k)的平方,即能量谱,然后通过Mel滤波器Hq(k)对频谱进行平滑,并消除谐波,凸显原先语音的共振峰。
Hq(k)是一组三角带通滤波器,设计如下:
在本论文中区滤波器个数为Q=24,它的图像如下:
图2Mel频率滤波器组
(2)
式中:
f(q),q=1,…,Q是中心频率,Q是滤波器个数。
4.对滤波器组的输出取对数:
压缩语音频谱的动态范围;
将频域中噪声的乘性成分转换为加性成分,对数Mel频谱S(q)为:
(3)
5.离散余弦变换(DCT)
将(3)获得的S(q)变换到时域,结果就是Mel频率倒谱系数(MFCC),第n个系数C(n)的计算如下式:
(4)
其中,L是MFCC阶数,一般为12~16,Q为23~26.
MFCC反映了语音信号的静态特性,随时间的变化反映了语音特性的动态特性,用差分公式表示如下:
(5)
这里M的值一般取2或3。
至此,MFCC特征提取结束。
在实际过程中,可以根据需要与实验测试来选取维数不同的特征向量,如:
12,13,24,26,36,39维等。
本文选用24维的MFCC特征向量来作为声纹识别系统的特征提取结果。
该模型的matlab代码见附录一。
4.2问题二模型的建立和求解:
4.2.1基于GMM的声纹识别建立的模型
GMM本质上是利用多维概率密度函数对语言信号进行建模。
一个具有M阶混合分量的D维GMM表示如下
(6)
式(6)表明了样本X属于类别
的概率大小,M实际上是表示样本X的类别数。
式(6)中,
为混合权重,且
。
是D维的联合高斯分布,表示为
(7)
式中,
是均值,
是协方差矩阵。
GMM的所有参数用
表述为
(8)
4.2.2GMM模型的求解
4.2.2.1初始值
由k均值(k-mean)聚类算法对样本进行聚类,利用各类的均值作为
,并计算
取各类样本占样本总数的比例。
4.2.2.2最大化步骤
对于一组长度为T的语言序列
,它的似然度函数表示为
(9)
为说话人建立GMM后,我们用EM算法估计GMM的所有参数,通过迭代找到一个新的模型
,使
最终得到GMM各参数的重估公式:
●更新混合权重
(10)
●更新均值
(11)
●更新方差矩阵
(12)
4.2.2.3估计步骤
对基于GMM的说话人识别,采用帧似然概率得分法进行判决。
具有N各说话人的识别系统,相应的GMM分别为
在识别时,给定待识别语音序列
,则这段语音属于第n个说话人的最大后验概率为:
(13)
式中,P(X)为所有说话人条件下X的概率密度,对于确定的X,P(X)是一个确定的常数,
为第n个人说话的先验概率,且
(14)
4.2.2.4收敛条件
不断地迭代2.2.2和2.2.3步骤,重复更新(10)(11)(12)三个式子的值,直到
(15)
式(15)中的
通常取10-5,
通过公式(9)计算,
表示更新参数的值。
4.2.2.5识别结果的得出
为X是第n个人说话的条件概率,因此求取后概率的最大值可以通过求取
获得,识别结果为:
(16)
4.3
4.4问题四的解答:
我们知道声纹识别需要解决的关键问题还有很多,诸如:
短话音问题,能否用很短的语音进行模型训练,而且用很短的时间进行识别,这主要是声音不易获取的应用所需求的;
声音模仿(或放录音)问题,要有效地区分开模仿声音(录音)和真正的声音;
多说话人情况下目标说话人的有效检出;
消除或减弱声音变化(不同语言、内容、方式、身体状况、时间、年龄等)带来的影响;
消除信道差异和背景噪音带来的影响;
此时需要用到其他一些技术来辅助完成,如去噪、自适应等技术。
设长度为N的M维特征矢量序列为:
X={X1,X2,⋯,XN),其中第n(0<
n<
=N)个矢量可记为:
Xn={Xn1,Xn2,…,XnM},它可以被看作是语音信号中某一帧参数所组成的矢量。
说话人语音信号特征矢量的分布各不相同,第m维矢量的方差为:
(17)
式中:
为特征矢量的维数;
为第,2个矢量的第m个参数;
为第n个矢量的平均值,第m维矢量的权值为:
(18)
相应的基于方差的加权欧氏距离公式为:
(19)
Ckm为第K个类的聚类中心。
方差是用来衡量样本数据的离散程度的,进行聚类分析时易受样本孤立点的响。
为了消除此影响,文中利用距离和对样本的孤立点进行了处理计算矢量集中矢量两两之间的几何距离,累加距离和,去掉L个与其他矢量之问距离和最大的矢量,然后从剩余的矢量中选出距离最大的2个矢量作为不同类的聚类中心,着从其余的矢量中寻找出到所有聚类中心的距离和最大的矢量作为另一个类的中心,直到选出K个聚类中心。
改进后的K—means聚类算法描述如下:
(1)从上述方法选出的K个聚类中心出发,利用公式(19)计算矢量集中的矢量与各类中心的距离,把剩余矢量划分到离它距离最近的类中,形成初始聚类;
(2)按照步骤
(1)的聚类,更新各个类的中心;
(3)以新聚类中心为参照点迭代步骤
(1)和
(2),到聚类中心不再变化或变化微小时停止。
五、结论分析与推广
声纹识别可以应用的范围很宽,可以说声纹识别几乎可以应用到人们日常生活的各个角落。
比如下面举几个例子。
(1)信息领域。
比如在自动总机系统中,把身份证之声纹辨认和关键词检出器结合起来,可以在姓名自动拨号的同时向受话方提供主叫方的身份信息。
前者用于身份认证,后者用于内容认证。
同样,声纹识别技术可以在呼叫中心(CallCenter)应用中为注册的常客户提供友好的个性化服务。
(2)银行、证券。
鉴于密码的安全性不高,可以用声纹识别技术对电话银行、远程炒股等业务中的用户身份进行确认,为了提供安全性,还可以采取一些其他措施,如密码和声纹双保险,如随机提示文本用文本相关的声纹识别技术进行身份确认(随机提示文本保证无法用事先录好的音去假冒),甚至可以把交易时的声音录下来以备查询。
(3)公安司法。
对于各种电话勒索、绑架、电话人身攻击等案件,声纹辨认技术可以在一段录音中查找出嫌疑人或缩小侦察范围;
声纹确认技术还可以在法庭上提供身份确认(同一性鉴定)的旁证。
在监狱亲情电话应用中,通过采集犯人家属的声纹信息,可有效鉴别家属身份的合法性。
在司法社区矫正应用中,通过识别定位手机位置和呼叫对象说话声音的个人特征,系统就可以快速的自动判断被监控人是否在规定的时间出现在规定的场所,有效地解决人机分离问题。
(4)军队和国防。
声纹辨认技术可以察觉电话交谈过程中是否有关键说话人出现,继而对交谈的内容进行跟踪(战场环境监听);
在通过电话发出军事指令时,可以对发出命令的人的身份进行确认(敌我指战员鉴别)。
目前该技术在国外军事方面已经有所应用,据报道,迫降在我国海南机场的美军EP-3侦察机中就载有类似的声纹识别侦听模块。
(5)保安和证件防伪。
如机密场所的门禁系统。
又如声纹识别确认可用于信用卡、银行自动取款机、门、车的钥匙卡、授权使用的电脑、声纹锁以及特殊通道口的身份卡,把声纹存在卡上,在需要时,持卡者只要将卡插入专用机的插口上,通过一个传声器读出事先已储存的暗码,同时仪器接收持卡者发出的声音,然后进行分析比较,从而完成身份确认。
同样可以把含有某人声纹特征的芯片嵌入到证件之中,通过上面所述的过程完成证件防伪。
介于应用方面的考虑,该模型的建立对声纹识别技术在信息领域,银行、证券,公安司法,军队和国防,保安和证件防伪,社保基金等方面的正常发展和实施具有里程碑的的作用,也为以后的有关身份证实问题的行业的进步具有重要意义。
除此以外声纹识别所提供的安全性可与其他生物识别技术(如:
指纹、掌形和虹膜)相媲美,而且语音采集装置造价低廉,只需电话/手机或麦克风即可,无需特殊的设备;
它与说话语言无关,与方言腔调无关,不涉及隐私问题,适应人群范围很广;
声音信号便于远程传输和获取,在基于电信和网络的身份识别应用中,声纹识别更为擅长,得天独厚。
六、模型评价
优点:
MFCC模型应用广泛,是对人耳的仿真,准确度高。
GMM模型能很好的仿真语者广阔的语音空间中的某一类下的一项声学类别,对任一种具有多类别的样本而言,它都具有极佳的能力去近似这些样本(在声纹识别中即为特征向量)空间概率分布。
不足:
传统的K-means算法在聚类过程中采取几何距离就近原则,这只有当类的自然分布为球状或接近于球状时,也就是说当类中各矢量的分布接近于相等时才能取得较好的识别效果。
而语音信号是近似椭圆状的正态分布,各矢量的分布不等,若用传统K-means算法作为GMM的初始化方法,将会忽略特征矢量各维分量对识别的影响,无法得到令人满,意的识别结果。
改进:
(1)从上述方法选出的个聚类中心出发,计算矢量集中的矢量与各类中心的距离,把剩余矢量划分到离它距离最近的类中,形成初始聚类;
(3)以新聚类中心为参照点迭代步骤
(1)和
(2),直到聚类中心不再变化或变化微小时停止。
模型的推广:
特征参数提取方面,本文在语音信号特征提取方面仅选用了语音领域较为认同的美尔倒频谱系数(MFCC),而目前小波变换以其时域、频域兼而有之的高分辨率优势正在不断被引进到语音信号的特征提取过程中。
相信进一步的研究,必定会得到不少的收获。
本文并没有特别深入地针对某些比较细节的问题来做处理,而在实际的声纹识别系统中,有许多世纪的因素会影响系统的表现,例如语者模型老化、恶劣的声学环境等,这些问题都有利于进一步的深入研究。
七、参考文献
[1]冷建华,李萍,王良红数字信号处理北京:
国防工业出版社,2002.
[2]滕素珍数理统计大连:
大连理工大学出版社,2008.
[3]吴金池语者辨识系统之研究国立中央大学电机工程研究所硕士论文,2002。
[4]卢文祥,杜润生机械工程测试·
信号·
信号分析武汉:
华中科技大学出版社,1999.
[5]易克初,田斌,付强语言信号处理北京:
国防工业出版社,2000.
[6]石燕声纹识别技术研究南京航空航天大学硕士学位论文,2004.
[7]朱民雄计算机语言技术[M]北京:
北京航空航天大学出版社,1992.
[8]JuangB.语音处理的过去、现在和未来[J],IEEE信号处理,1998.
[9]吴玺洪声纹识别听声辨认[N]计算机世界,2001.
[10]张彩娟,霍春宝改进K-means算法在声纹识别中的应用,2011年10月
附录1:
%---------------demo1.m-------------------------%
x=wavread('
001.wav'
);
%读入源语音文件
mel_data=mfcc(x);
%输出mel频率倒频系数
%--------------------函数mfcc.m的源代码--------------------%
functionccc=mfcc(x)
%%x为用wavread函数读到的初始信号值
%归一化mel滤波器组系数
bank=melbankm(24,256,8000,0,0.5,'
m'
bank=full(bank);
bank=bank/max(bank(:
));
%DCT系数,12*24
fork=1:
12
n=0:
23;
dctcoef(k,:
)=cos((2*n+1)*k*pi/(2*24));
end
%归一化倒谱提升窗口
w=1+6*sin(pi*[1:
12]./12);
w=w/max(w);
%预加重滤波器
xx=double(x);
xx=filter([1-1],1,xx);
%语音信号分帧
%xx=enframe(xx,256,80);
xppl=length(xx);
j=1;
fori=65:
80:
xppl-256,
xx1(j,:
)=xx(i:
i+256-1)'
;
j=j+1;
xx=xx1;
%计算每帧的MFCC参数
fori=1:
size(xx,1)
y=xx(i,:
s=y'
.*hamming(256);
t=abs(fft(s));
t=t.^2;
t=t+2*realmin;
c1=dctcoef*log(bank*t(1:
129));
c2=c1.*w'
m(i,:
)=c2'
%差分参数
dtm=zeros(size(m));
fori=3:
size(m,1)-2
dtm(i,:
)=-2*m(i-2,:
)-m(i-1,:
)+m(i+1,:
)+2*m(i+2,:
dtm=dtm/3;
%合并mfcc参数和一阶差分mfcc参数
ccc=[mdtm];
%去除首尾两帧,因为这两帧的一阶差分参数为0
ccc=ccc(3:
size(m,1)-2,:
return
%%----------------enframe函数的matlab代码----------------------%%%
function[f,t,w]=enframe(x,win,inc,m)
%ENFRAMEsplitsignalupinto(overlapping)frames:
oneperrow.[F,T]=(X,WIN,INC)
%
%Usage:
(1)f=enframe(x,n)%splitintoframesoflengthn
%
(2)f=enframe(x,hamming(n,'
periodic'
),n/4)%usea75%overlappedHammingwindowoflengthn
%Inputs:
xinputsignal
%winwindoworwindowlengthinsamples
%incframeincrementinsamples
%mmodeinput:
%'
z'
zeropadtofillupfinalframe
r'
reflectlast
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 声纹 识别