传感器融合系统Word下载.docx
- 文档编号:22062408
- 上传时间:2023-02-02
- 格式:DOCX
- 页数:15
- 大小:556.11KB
传感器融合系统Word下载.docx
《传感器融合系统Word下载.docx》由会员分享,可在线阅读,更多相关《传感器融合系统Word下载.docx(15页珍藏版)》请在冰豆网上搜索。
采取合适的信息融合算法应用于网络武器系统中;
在MTLAB上仿真与分析信息融合算法;
分析信息融合算法在网络武器系统的应用,以及存在的问题。
信息融合技术的实现
声传感器模块
传感器模块首先通过传感器将测得的外部非电量的变化转换成电量变化,然后通过
转换电路转换成电压信号或电流信号,转换后的电信号通常属于微弱信号并叠加有干扰
噪音,需要经过调理电路的放大,再进入DSP的ADC模块进行模数转换,转换成数字
信号后,以便对数字信号进行滤波等处理。
本文采用的声音传感器采集系统,由4个独立的采集电路构成。
每个采集电路包括
声传感器、输出偏置、放大、DSP的内部A/D转换、串口通信等环节,声传感器采集
本文选择驻极体麦克风,驻极体麦克风体积小、频率范围宽、高保真和价格低廉,
应用非常广泛。
驻极体麦克风内部一般带有一个漏极开路JFET输出电路,它需要用一个几千欧姆的偏置电阻连接到正电源电压上,如图5.2中的R1。
该电阻为驻极体麦克风的JFET提供直流偏置,它的适当选择对声音信号的放大起着重要的作用。
电容C1起隔离直流偏置的作用。
放大电路是对微弱信号的放大,一般采用二级放大。
考虑到前级噪音放大的影响,第一级放大倍数一般设定在10倍以内,可以选用专用的音频前置放大器:
第二级放大的倍数根据需要设定。
放大电路中选择的运放应具有高输入阻抗、高共模抑制比和低噪声等特性。
放大电路的原理图如图5.3所示。
DSP多路信号采集模块
从ADC模块及操作原理和ADC模块的相关C语言程序设计介绍
TMS320F2812的模/数转换(ADC)模块。
ADC模块有16个转换通道,可配置成两个独立的8通道转换模块,分别对应于
时间管理器A和B,两个独立的8通道转换模块可以级联成一个16通道模块。
在ADC
模块中尽管可以多通道输入和有两个排序器,但是只有一个加转换器,一次只能转换一个通道。
两个8通道模块可以自动对一序列转换进行排序,而且每个模块都可以通过多路复用开关选择任何一个通道。
在级联模式下,自动排序器将作为一个单一的16通道排序器。
对于每个排序器,当转换结束时,选择通道的转换结果被存储在相应的结果寄存器(ADCI也SULT)中。
在F2812中,自动排序模式允许对同一通道进行多次采样转换。
ADC模块的主要功能特点如下。
(1)12位ADC采样内核包括两个采样保持(S/H)电路。
(2)可设置同步采样或顺序采样模式。
(3)模拟输入电压:
O一3V。
在处理A/D转换结果时,因为ADC精度为12位,但是存储器为16位,而且在存
储器中是按照左对齐方式存储的,所以读取数据时需要首先将读到得数据右移四位得到真正转换结果,然后在进行相应的处理。
∥读取AD数据,并将数据发送给串口传给计算机
voidAD2RS232(void)
{AdcRegs.ADCTRL2.all=Ox2000;
while(AdcRegs.ADCST.bit.INT_SEQl==0){);
//等待中断
AdcRegs.ADCST.bit.INT_SEQI_CLR=1;
//通过串口将4个通道转换的结果发送给主机
ReceivedChar=(AdcRegs.ADCRESULT0>
>
4);
Scib__xmit(ReceivedChar>
8);
Scib_xmit(ReceivedChar&
0xf0;
ReceivedChar=(AdcRegs.ADCRESULTI>
Scib_xmit(ReceivedChar>
0xff);
ReceivedChar=(AdcRegs.ADCRESULT2>
Scib__xmit(ReceivedChar&
ReceivedChar=(AdcRegs.ADCI也SUuB>
)
根据采样定理,为了避免混叠以使采样后仍有可能准确的恢复其原信号,采样频率必须大于信号最高频率的两倍。
采样频率过低,测试的精度就较低,就有可能丢失有用的信息。
采样频率过高,处理时计算量就加大。
根据测试目的不同,采样率应设置在合适的范围,如果是为了识别,采样率可以设置低一点,如果是为了定位,采样率就应该设置高一些。
车辆和人脚步音频信号的能量主要集中在3KHz内,信号采样率可设置为8KHz。
DSP的电源模块电路图如图5.6所示。
串口通信模块
在F2812中有两路串行通信接口(SCI口),在进行电气平台设计时,将SCIB口设计成RS.232口,主要功能是与上位机进行通信,电平转换芯片采用美信公司的r^,'
1M匕℃I(3;
232L“J。
MAX3232具有以下性能:
(1)符合电子工业联合会制定的232协议;
SciRegs.SCIFFCT.alI=0x0000;
SciRegs.SCICCR.all=Ox0007;
SciRegs.SCICTLl.all=0x0003;
SciRegs.SCICTL2.all=0x0003;
//禁止波特率校验
//1个停止位,无校验,禁止自测试
∥复位
SciRegs.SCIHBAUD.all=0x0000;
//设定波特率115200/bps
SciRegs.SCILBAUD.all=0x0028;
SciRegs.SCICTLl.all=0x0032;
}|、逯出RESET
//串口的发送函数段
voidScib_xmit(Uintl6a)
{
SciRegs.SCITXBUF=(a&
OxfO;
//发送数据缓冲寄存器
while(SciRegs.SCICTL2.bit.TXRDYI=I){};
//发送缓冲寄存器准备好标志
声信号采集与处理
电路的各个模块通过调试,就可以进行信号的采集与分析。
在相对安静的环境中,采集轿车从附近驶过的声音信号,声传感器信号的波形如图5.8和图5.9所示。
车辆音频信号也可称为车辆噪声信号,它是是一种多声源噪声,发动机、变速器、传动轴,车身或者轮胎等等,都会产生噪声。
在按帧进行语音分析、提取语音参数之前先对语音信号进行预处理。
车辆声音音频的电信号可以提取过零率,功率谱和短时能量来大体反映车辆的信号特征。
为了有效实现分类识别,就要对原始数据进行变换,得到最能反映分类本质的特征,这就是特征提取和选择的过程。
在受环境影响小的路段,尽可能多地采集多种车型的样本,使得训练出来的特征模板更加准确。
通过多次的信号采集,进行特征提取,并建立特征数据库。
虽然音频信号具有时变特性,但是在一个短时间范围内其特性基本上保持不变即相对稳定,将语音信号分段来分析其特征参数,其中每一段称为一“帧”,帧长去30ms。
多传感器融合识别
融合识别实现过程如图5.11所示。
音频信号的融合识别主要分为三个步骤:
第一步是根据识别系统的类型选择能够满足要求的一种特征提取方法,采用音频信号分析方法分析出这种识别方法所要求的音频信号特征参数,这些参数作为标准模式存储起来,形成标准模板库,这一过程被称为学习或训练;
第二步就是模板匹配,首先根据音频信号的特点建立音频信号模型,对输入的音频信号进行分析,抽取能够较好表现音频信号特点的特征参数,在此基础上建立音频信号识别所需的模板,根据模式识别的原理,未知音频信号的测试模板与己知音频信号的参考模板逐一进行比较,获得最佳匹配的参考模板,计算未知音频信号的测试模板与参考模板的匹配概率,即相关系数;
第三步是融合识别,根据采样的数据分析其特征与特征数据库各个类别的相关系数,通过可信度分配值的获取算法得到可信度分配值,然后利用D-S证据理论信息融合算法综合四个声传感器的可信度分配值,得到最后的判决结果。
以下为信息融合的参数说明和函数功能说明。
A信息融合算法所需的输入参数,lc/
BYTEn=?
,m=?
:
//n为目标类型数,m为传感器个数
floatC[][]={):
//数组C为传感器对目标类型的匹配值
floatg[]={):
//各个传感器的环境加权系数,异类传感器具有不同的系数
/水算法实现过程中的参数木/
floata[],b[],e[],r[];
//数组a、b、e、r为基本概率分配函数的参数
floatbel[][]:
//数组bel为各传感器的可信度分配
/,lc信息融合算法输出参数木/
floatw[]:
//数组w为融合结果
序函数功能:
计算基本概率分配参数:
a[]水/
voidpara_A()‘
BYTEi,j,k:
floattemp:
floattempc[m][n]:
temp=O:
for(i=O:
i<
m:
i++)
for(j=O:
j<
n:
j++)
tempc[i][j]=c[i][j]:
}
for(k=O:
k<
k++)
for(i=0:
(n-1):
for(j=i+l:
if(tempc[k][i]>
tempc[k][j])
temp=tempc[k][i]:
tempc[k][i]=tempc[k][J]:
tempc[k][j]=temp:
a[k]=tempc[k][II-1]:
e[]:
Ic/
voidpara_E()
BYTEi,J:
for(3=o:
temp=temp+c[i][j]:
e[i]=n水g[i]/temp;
A函数功能:
b口木/
voidpara_B()
BYTEi:
b[i]=(e[i卜1)/(m-1):
/丰函数功能:
r[]水/
voidpara_R()
f
temp=temp+g[i]木aEi]木b[i]:
r[j]=g[j]水a[j]木b[j]/temp;
/*函数功能:
计算基本概率分配值*/
voidbelive()
for(j=o:
bel[i][k]=c[i][k]/(temp+n水(1-r[i])木(1一g[i],Ica[i]木b[i])):
bel[i][n]=n冰(1-r[i])木(1一g[i]木a[i]木b[i])/(temp+n半(1一r[i])
木(1一g[i]*aEi],Icb[i])):
Dempster合并算法水/
voidmultifusion0
floattemp,conf;
n+l:
wEi]=bel[0][i]:
m-1:
conf=O:
for(j=0:
if(i!
=j)
//conf为冲突因子
conf=conf+w[i]*bel[k+1][j]:
temp=11。
conf;
w[i]=(w[i]*bel[k+1][i]+w[i]*bel[k+1][13]+w[n]*bel[k+1][i])/temp;
w[n]=w[n]木bel[k+1][n]/temp:
信息融合的程序流程图为:
图5.12程序流程图
信号分析软件如图5.13所示,软件功能模块分为串口通信、查看波形、数字滤波、特征提取、特征数据库、单传感器目标识别和多传感器目标识别等。
通过多次试验和分析可知,利用多传感器融合识别比单传感器目标识别具有更高的准确率。
应用证据理论的关键是根据实际情况构造出合理的证据组合模型,也就是在融合前将单传感器模糊匹配的输出结果转化为可信度分配值的过程。
本文在全面综述多传感器信息融合的国内外进展情况下,结合网络武器系统应用的需要,讨论了不确定推理方法中的D.S证据理论推理方法。
研究了D.S证据理论信息融合方法,并对证据推理的应用问题进行了分析与总结。
将证据组合方法应用于网络武器系统的目标识别问题中。
根据论证工作的实际需要,本论文所作的主要工作如下:
(1)以实际军事需要为主要背景,通过阅读大量相关文献,电子文档,书籍等来学习了相关基础理论知识,通过学习了解当前国内外研究的现状和相关学科知识体系。
C)分析了D.S信息融合算法的优缺点,为以后相关科研人员提供了一种继续研究的依据。
(3)建立在以往课题的研究成果上,对信息融合过程中涉及的关键算法做了比较深入的研究,并且在MATLAB上进行了计算与分析。
(4)详细说明了网络武器系统中的多传感器信息融合算法的实现过程与结果。
参考文献
[1]康耀红.蔡希尧等.多传感器数据融合研究现状综述.西安电子科技大学学报,计算
机专辑.1994.
[2]耿立恩,潘旭峰,李晓雷,祝嘉光.Dempster—Shafer证据推理在数据融合中的应用.
北京理工大学学报.1997,17
(2):
198-203.
[3]魏守辉.多传感器目标信息融合与跟踪方法研究.硕士学位论文.南京:
南京航空航
天大学,2005.3:
9-11.
[4]XX搜索
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 传感器 融合 系统