粗糙集与其他软计算理论结合情况进行综述研究.docx
- 文档编号:28023319
- 上传时间:2023-07-07
- 格式:DOCX
- 页数:25
- 大小:33.68KB
粗糙集与其他软计算理论结合情况进行综述研究.docx
《粗糙集与其他软计算理论结合情况进行综述研究.docx》由会员分享,可在线阅读,更多相关《粗糙集与其他软计算理论结合情况进行综述研究.docx(25页珍藏版)》请在冰豆网上搜索。
粗糙集与其他软计算理论结合情况进行综述研究
粗糙集与其他软计算理论结合情况进行综述研究
摘要:
最近几年,对于粗糙集的研究越来越多,尤其是粗糙集与其他软计算理论相结合的研究更为突出,取得了很多有意义的研究成果。
因此,将此方面目前的主要研究情况进行一个总结,主要介绍了目前粗糙集与模糊集、神经网络、证据理论等一些其他软计算理论之间的结合研究情况,并对这方面未来的发展提出了自己的一些观点。
关键词:
粗糙集;软计算;模糊集;粗糙模糊集;模糊粗糙集
Surveyoncombinationofroughsetsandothersoftcomputingtheories
TANGJian-guo?
?
1,2,WilliamZHU?
1,SHEKun?
1,CHENWen?
?
1,3
(1.SchoolofComputerScience&Engineering,UniversityofElectronicScience&TechnologyofChina,Chengdu611731,China;2.SchoolofComputerScience&Engineering,XinjiangUniversityofFinance&Economics,Urumqi830012,China;3.Dept.ofComputerScience,FuzhouPolytechnic,Fuzhou350108,China)?
Abstract:
Inrecentyears,therearemoreandmoreresearchonroughsets.Especially,thecombinationsofroughsetsandothersoftcomputingtheorieshavebecamemoreprominent,andhavemadealotofmeaningfulresearchresults.Inviewofthis,thispapergaveasummaryofthecurrentstatusofthesemajorresearchs.Itfocusedonthecombinationofroughsetsandothersoftcomputingtheoriessuchasfuzzysets,neuralnet,evidencetheory,andsoon.Intheend,itputforwardtheownviewpointofthefuturedevelopmentinthisarea.
Keywords:
roughsets;softcomputing;fuzzysets;rough-fuzzysets;fuzzy-roughsets
0引言
随着计算机技术和网络技术的迅速发展与广泛应用,人类社会进入了信息爆炸的时代,如何处理并有效利用这些信息已经成为世界各国学者研究的热点问题。
软计算就是在这种需求背景下出现的一种新技术。
软计算最初是由模糊集理论的创始人Zadeh[1]在1994年提出的,它是一种通过对不确定、不精确及不完全真值的数据进行容错处理从而取得低代价、易控制处理以及鲁棒性高的方法的集合。
目前,软计算的理论与方法主要包括神经网络、模糊集、粗糙集、遗传算法、证据理论等。
粗糙集是在最近几年发展较快的一门理论,它是一种用于分析和处理不确定、不精确问题的数学理论,是由波兰数学家Pawlak[2]在1982年提出的。
它的基本思想是通过论域上的等价关系将论域划分成若干个等价类,然后利用这些知识对所需处理的不精确或不确定的事物进行一个近似的刻画。
粗糙集理论最大的特点是它对论域的划分只依赖于所需处理的数据集合本身,不需要任何先验信息,所以对问题不确定性的描述或处理是比较客观的。
这一点也是它与其他软计算理论之间的显著区别。
不过,粗糙集在原始数据不精确或不确定时,是无法处理数据的,这恰好与软计算中的其他理论有很强的互补性。
因此,粗糙集与其他软计算理论和方法的结合已成为粗糙集研究中的一个重要内容。
本文将对粗糙集与模糊集、神经网络、概念格以及证据理论等软计算理论的结合研究情况进行介绍,并指出这方面未来的研究发展方向。
1粗糙集理论概述
粗糙集是一种用于解决不确定性问题的数学工具。
粗糙集理论中知识被理解为对事物进行区分的能力,在形式上表现为对论域的划分,因而通过论域上的等价关系表示。
粗糙集通过一对上、下近似算子来刻画事物,它不需要数据以外的任何先验知识,因此具有很高的客观性。
目前,粗糙集被广泛用于决策分析、机器学习、数据挖掘等领域[3~8]。
1.1粗糙集中的基本概念[9]
定义1论域、概念。
设U是所需研究的对象组成的非空有限集合,称为一个论域,即论域U。
论域U的任意一个子集XU,称为论域U的一个概念。
论域U中任意一个子集簇称为关于U的知识。
定义2知识库。
给定一个论域U和U上的一簇等价关系S,称二元组K=(U,S)是关于论域U的知识库或近似空间。
定义3不可分辨关系。
给定一个论域U和U上的一簇等价关系S,若PS,且P≠?
则∩P仍然是论域U上的一个等价关系,称为P上的不可分辨关系,记做IND(P)。
称划分U/IND(P)为知识库K=(U,S)中关于论域U的P-基本知识。
定义4上近似、下近似。
设有知识库K=(U,S)。
其中U为论域,S为U上的一簇等价关系。
对于?
X∈U和论域U上的一个等价关系R∈IND(K),则X关于R的下近似和上近似分别为
下近似R(X)=∪{Y∈U/R|YX}
上近似R(X)=∪{Y∈U/R|Y∩X=?
}
集合的上近似和下近似是粗糙集中最核心的概念,粗糙集的数字特征以及拓扑特征都是由它们来描述和刻画的。
当R=(X)时,称X是R-精确集;当R(X)≠(X)时,称X是R-粗糙集,即X是粗糙集。
1.2粗糙集中的知识约简
在一个信息系统中,有些描述对象的属性可能是不必要的,因此需要将这些冗余的属性予以删除来提高系统的效率。
给定一个知识库K=(U,S),对于PS,?
R∈P,如果IND(P)=IND(P-{R})成立,则称R为P中不必要的,否则称R为P中必要的。
如果P中的每个R都是必要的,则称P是独立的。
定义5约简、核。
给定一个知识库K=(U,S)和知识库上的一簇等价关系PS,对于任意GP,如果G是独立的,并且IND(G)=IND(P),则称G是P的一个约简,记为G∈RED(P)。
P中所有必要的知识组成的集合称为P的核,记为Core(P)。
约简与核的关系为Core(P)=∩RED(P),即核是约简的交集。
常见的粗糙集中知识约简的算法主要有盲目删除约简法、基于Pawlak属性重要度的约简法和基于差别矩阵的约简法。
其中,盲目删除法是通过任意选择一个属性,看其是否是必要的,如果是必要的则保留,否则删除该属性,这种方法简单直观,但约简的结果却不一定让人满意;基于Pawlak属性重要度的方法是根据属性的重要度来进行约简,其特点是用这种方法可以得到信息系统的最优约简或次优约简,但它却存在找不到一个约简可能性;基于差别矩阵的方法是把论域中区分任意两个对象的属性集合用矩阵的形式表示出来,通过这个矩阵可以直观地得出信息系统的核和所有约简,这种方法虽然能很直观地得出信息系统的所有约简和核,但当问题规模较大时会产生组合爆炸。
此外,也有学者对知识的约简提出了一些改进的新算法。
文献[10,11]基于邻域对粗糙集的属性和属性值的约简进行了优化处理;文献[12]提出了一种新的属性约简方法ReCA,提高了对连续性属性的数据的知识约简性能。
粗糙集在处理不确定问题中新颖独特的方法引起了大量学者的兴趣,很多学者对该理论作出了扩展性的研究[13~17],包括覆盖粗糙集[18~21]、变精度的粗糙集[22]等很多新的内容。
文献[23]对粗集的公理化进行了深入的研究,得到了两个关于粗集的最小公理组;文献[24]通过松弛对象之间的不可分辨和相容性条件,给出了一种新的基于和谐关系的粗糙集模型;文献[25]构造了关于决策表对象的区分条件,并借助区分矩阵与区分函数提出了一种完备的约简方法;文献[16]将组合熵和组合粒度的概念引入到了粗糙集中,确立了两者之间的关系;文献[26]提出了在不协调目标信息系统中知识约简的新方法;文献[27]提出了属性左划分和属性右划分的观点,设计了一种基于划分的属性约简算法ARABP;文献[28]从属性和信息熵的角度探讨了粗糙集的不确定性的度量。
这些研究极大地推动了粗糙集理论的发展和应用。
2粗糙集与模糊集
模糊集理论是由美国学者Zadeh于1965年提出的,模糊集指的是这样一种集合,这个集合中的每个元素都是在一定程度上隶属于或者不隶属于这个集合,用于衡量这种隶属程度的函数被称为隶属函数。
模糊集中的任意一个元素都是通过隶属函数来确定一个隶属度与之一一对应。
2.1模糊集理论的基本概念
定义6隶属度、隶属函数。
设U是一个论域,A是U上的一个模糊集,如果?
x∈U,均能确定一个数μ?
A(x)∈[0,1]来表示x隶属于A的程度,称这个数是x对A的隶属度。
其中μ?
A(x)是这样一个映射:
μ?
A:
U→[0,1],x|→μ?
A(x)∈[0,1],?
μ?
A(x)称为A的隶属函数。
隶属函数是模糊集的核心基础概念,由它来确定和描述一个模糊集。
对于同一个论域,不同的隶属函数确定不同的模糊集,如μ?
A(x)和μ?
B(x)是论域U上的两个不同的隶属函数,则由它们可以确定两个不同的模糊集A和B。
模糊集是经典集合理论的扩展,当一个模糊集的隶属度只能取0或1时,即μ?
A(x)∈{0,1},模糊集A便退化为一个经典集合论中的普通集合。
2.2模糊集与粗糙集的互补性
在模糊集中,隶属函数一般是根据专家的经验知识或者通过一些统计数据结果来确定,具有很大的主观性,而缺乏一定的客观性,这也是模糊集的一个根本缺陷。
粗糙集中的上近似和下近似是由已知知识库中客观存在的对象来确定的,不需要任何先前的假设条件,具有很强的客观性。
但是,在实际的生活中,有很多已知的、确定的而无须再去进行判断的先验知识,如果能直接利用这些知识来解决问题,会带来很高的效率,而这一点又正是粗糙集所欠缺的。
由此可见,粗糙集与模糊集各自的特点之间具有很强的互补性,把它们结合起来解决问题通常都会比单独使用它们更为有效。
在这方面的研究已经有了很大的进展和很多的具体应用,粗糙模糊集和模糊粗糙集[29]便是其中两个重要的研究成果。
粗糙模糊集主要是通过对模糊集中的隶属函数采用粗糙集中集合的上近似与下近似的方法来进行描述,以此来增强模糊集处理问题的客观性。
它是把粗糙集中的上下近似的特点融入到了模糊集当中,将模糊集中的隶属函数概念扩展成上近似的隶属函数和下近似的隶属函数,由这两个隶属函数所确定的隶属度值来形成一个区间;用这个区间来描述一个元素隶属于一个模糊集的可能性范围,而不再是之前的元素与隶属度之间一一对应的情况,即x∈A的隶属度不再是μ?
A(x)∈[0,1],而是在[下近似的隶属度,上近似的隶属度]这个区间。
粗糙模糊集的基本定义如下:
定义7粗糙模糊集。
设U是一个论域,R是U上的一个等价关系,A是U上的一个模糊集,μ?
A(x)是A的隶属度函数,R(A)和(A)分别表示A的上近似和下近似,它们对应的隶属函数是:
a)下近似的隶属函数μR(A)([x]?
R)=inf{μ?
A(x)|x∈[x]?
R},?
x∈X;
b)上近似的隶属函数μ(A)=sup{μ?
A(x)|x∈[x]?
R},?
?
x∈X。
称R(X)=(R(X),(X))为粗糙模糊集。
模糊粗糙集是把模糊集中的隶属函数的概念应用到了粗糙集当中,根据模糊集中的隶属函数来确定粗糙集中的一个等价关系,即把由隶属函数得到的隶属度相同的元素归属于同一等价类,从而得到论域U上的一个划分。
这其实就是将模糊集中已知的、确定的而无须再判断的知识转变为粗糙集中的等价关系,得到粗糙集上的一簇等价类,提高粗糙集处理问题的效率。
模糊粗糙集的基本概念定义如下:
定义8模糊粗糙集。
给定一个论域U,A是U的一个模糊集,μ?
A(x)是A的隶属函数。
设R?
A为U上的一个等价关系,且满足对于?
x,y∈U,xR?
Ay?
μ?
A(x)=μ?
A(y)。
令[x]R?
?
A表示以x为代表元素的等价类,若XU,X≠?
则X关于R?
A的下近似和上近似分别为
下近似R?
A(X)=∪{[x]R?
?
A|[x]R?
?
AX}
上近似?
A(X)=∪{[x]R?
?
A|[x]R?
?
A∩X≠?
}
若R?
A(X)=?
A(X),称X是R?
A-可定义集;若R?
A(X)≠?
A(X),称X是R?
A-模糊粗糙集。
粗糙模糊集和模糊粗糙集对粗糙集和模糊集进行很好的互补性处理,已经在很多领域得到了实际应用[30~33],并取得了很好的效果。
有很多学者对它们进行了进一步的比较研究[34~37],作了一些改进和扩展。
文献[38]在覆盖粗糙集的基础上,结合模糊集的最近寻常集,引入了覆盖广义粗糙集模糊度的概念,给出了一种模糊度计算方法,并证明了该模糊度的一些重要性质;文献[39]提出了模糊不可分辨关系的概念,加强了粗糙集对模糊值属性处理能力。
3粗糙集与神经网络
神经网络是在现代神经生物学研究成果的基础上发展起来的一种模仿人脑信息处理机制的网络系统。
它具有在有监督或无监督的情况下从输入数据中进行学习的能力,被广泛地应用于数据挖掘[40~42]、模式识别[43~47]、信号处理[48,49]、预测[50,51]等领域。
3.1神经网络基本知识
神经网络[52]是一个由简单处理单元构成的规模宏大的并行分布式处理器,天然具有存储经验知识和使之可用的特性。
神经元是神经网络最基本的信息处理单元,它具有接收和传递信息的功能。
一个神经网络是由众多的神经元组成,每个神经元接收其他神经元和外界的输入信息。
神经网络的结构通常都是以层的方式来组织的,一般包含一个输入层、任意多个隐藏层和一个输出层,每层都由众多的神经元组成。
其基本原理是输入层神经元接收外界环境的信息输入,隐藏层神经元将隐藏层单元的信息输出至输出层,输出层将信息输出至外界。
根据神经元信息的输出是否存在反馈,又将神经网络分为前馈神经网络和递归神经网络。
3.2粗糙集与神经网络的联系
粗糙集对事物的识别和判断是基于论域上的不可辨关系,它不需要任何先验的信息。
通过系统参数的重要度函数来获得描述事物各个属性的重要度,依此不仅可以进行属性的约简,而且也可以用于把握事物的主要特征,提高识别能力。
粗糙集可以实现对信息系统的知识约简,去除冗余的信息,减少输入信息的空间维度,提高处理效率。
不过粗糙集的抗干扰能力较差,对于噪声较为敏感,在噪声较大的环境中就表现得不尽如人意。
神经网络的特点就是通过训练和学习产生一个非线性的映射,模拟人的思维方式,具有很好的自适应性,可以实现有监督和无监督的学习,并能够对信息进行并行处理;同时,它具有很好的抑制噪声的能力。
但是神经网络也有很明显的缺陷,它无法对输入的信息进行有用性或冗余性的判断,因此不能对输入的信息进行简化,这使得它在处理空间维数较大的信息时会很困难和低效。
粗糙集与神经网络各自的长处和短处让人们发现它们具有很好的互补性;另外,从对人类思维模拟的角度看,粗糙集方法模拟人类的抽象逻辑思维,而神经网络方法模拟人类的形象直觉思维。
因此,将两者结合起来,用粗糙集的特点去弥补神经网络在处理髙维度数据上的不足,而用神经网络的抗干扰强的特性去弥补粗糙集对噪声的敏感性,将模拟人的抽象思维与形象直觉思维相结合,就会得到更好的效果。
目前,这方面的研究已成为一个重要的研究方向。
3.3粗糙集与神经网络的结合
粗糙集与神经网络最常见的结合方式主要有两种:
a)将粗糙集作为神经网络的前端处理器[53],通过利用粗糙集先对原始信息进行属性及属性值的约简,去除冗余信息,降低信息空间的维度,为神经网络提供一个较为简化的训练集,然后再构建和训练神经网络。
这样的结合方式不仅缩短了神经网络的学习和训练的时间,提高了系统反应速度,而且也可以充分发挥神经网络在抗噪性和容错性的优势,达到提高神经网络整体性能的目的。
b)通过在神经网络中引入一种粗糙神经元来进行,将粗糙神经元与普通神经元混合起来使用构成粗糙神经网络。
粗糙神经元是Lingras[54]设计的一种由一对重叠的普通神经元——上神经元和下神经元r组成,如图1所示。
粗糙神经元中上神经元和下神经元r整体看成是一个神经元r,神经元之间的连线表示信息的相互交换。
图2~4分别表示粗糙神经r与s之间的全连接、抑制连接和激励连接三种常见连接方式。
粗糙神经元的输出是具有上近似和下近似的一对数值,而普通神经元只有一个输出值。
下近似或上近似的神经元输入根据以下公式计算权值:
input?
i=?
nj=1wji×output?
j
其中:
wji为神经元j到i神经元间的连接权值,n表示i与j间存在的连接个数。
若f(u)为神经元激励函数,则粗糙神经元的上下神经元的输出值分别为
output?
=max(f(input?
),f(inputr))
output?
r=min(f(input?
),f(inputr))
计算普通神经元i的单个输出值的公式:
output?
i=f(input?
i)
函数f(input)为sigmoid型函数,定义如下:
f(u)=1/(1+e?
?
-gain×u)
其中:
增益系数gain是由系统的设计者确定的斜率。
f(u)采用sigmoid型转移函数是因这种转移函数在0~1具有连续的取值。
有关粗糙集与神经网络的结合研究,还有其他学者研究提出的一些新的结合方式,如强耦合集成[55]方式,为解决神经网络设计中的网络的隐层数、隐层节点数和初始权值的确定及网络语义提供了一种便于实现的新思路。
随着软计算理论中的各种理论和技术的不断发展和创新,将神经网络与诸如进化算法、概念格、证据理论及混沌学等加强结合研究,相信会取得更加让人振奋的成就。
4粗糙集与遗传算法
遗传算法[56]是一种自然进化系统的计算机模型,也是一种通用的求解优化问题的适应性搜索方法。
它的本质特征在于群体搜索策略和简单的遗传算子,是目前进化算法中最为重要的一种算法,广泛地应用于人工智能、数据挖掘、自动控制及商业等领域。
4.1遗传算法基本原理
遗传算法通过模拟自然选择和遗传机制,以迭代的方式对其研究的对象群体进行适应性评价、选择、重组,直到目标群体满足预定的要求或者达到最大迭代次数,从而得到其希望的最优解。
遗传算法的关键问题是对问题空间中个体的编码方式的选择、适应函数的确定,以及遗传策略中选择、交叉、变异三个遗传算子和选择概率p?
s、交叉概率p?
c、变异概率p?
m等遗传参数的确定。
下面是一个标准遗传算法的算法描述[56]:
迭代开始(iteration):
t=0
初始化(initialize):
P(0)={a?
1(0),a?
2(0),…,a?
n(0)}
适应性评价(evaluate):
P(0)={f(a?
1(0)),…,f(a?
n(0))}
while(循环)T(P(t))≠truedo
选择(select):
P′(t)=s(P(t),p?
s)
交叉(crossover):
P″(t)=c(P′(t),p?
c)
变异(mutate):
P?
(t)=m(P″(t),p?
m)
新一代群体:
P(t+1)=P?
(t),t=t+1
适应性评价(evaluate):
P(t+1)={f(a?
1(t+1)),…,f(a?
n(t+1))}
结束(enddo)
4.2粗糙集与遗传算法的结合
粗糙集与遗传算法的结合主要应用在属性的约简[57~59]、数据挖掘[60]等方面。
粗糙集中对于属性的约简通常采用启发式算法,如基于Pawlak属性重要度的属性约简算法、基于差别矩阵的属性约简算法等。
这种方法在一定的问题规模范围内会较为有效,但随着问题的规模增大,其最小约简的求解难度也会大幅增加。
遗传约简算法是求取信息系统最小约简或者相对最小约简的一种算法。
所谓最小约简或者相对最小约简,就是属性集的所有约简或者相对约简中,包含属性个数最少的属性集。
由于遗传算法是一种基于全局优化的搜索方法,并具有并行性和很好的鲁棒性,能够防止搜索陷入局部最优解的困境,更利于处理大规模问题的约简。
文献[57]根据可辨别关系的下三角矩阵,利用遗传算法提出一种基于遗传算法的粗糙集知识约简算法,这种算法不仅可以得到正确的约简,而且也能解决粗糙集中启发式算法无法求解的部分问题;文献[61]将信息论角度定义的属性重要性度量作为启发式信息引入遗传算法,并构造一个新的算子modifypop(t+1)来对种群进行修复,既保证了算法的整体优化性,也提高了算法的收敛速度。
在数据挖掘方面,文献[60]将粗糙集与遗传算法相结合,提出一种从大型数据表中获取决策规则的方法。
该方法利用粗糙集中属性的重要度和核的思想得到属性的约简,然后借助遗传算法来求得最优解。
此外,对连续属性的离散化处理是粗糙集中的一个重要问题。
属性离散化处理的关键在于选取合适的断点对条件属性构成的空间进行划分以减少搜索空间。
文献[62]针对该问题利用遗传算法将最小断点集作为优化目标,并构造一个新的算子来保证所选断点能保持原决策系统的不可分辩关系。
5粗糙集与概念格
概念格理论也被称做形式概念分析理论,是由德国数学家While提出的一种基于概念和概念层次的数学化表达[63],对于数据分析和规则提取非常有效。
目前广泛应用于机器学习[64]、软件工程[65]等领域。
5.1概念格理论的基本知识
定义9[66]形式背景。
称(U,A,I)为一个形式背景,其中U={x?
1,x?
2,…,x?
n}为对象集,每个x?
i(i≤n)称为一个对象;A={a?
1,a?
2,…,a?
n}为属性集,每个a?
j(j≤m)称为一个属性;I为U与A之间的二元关系,IU×A。
若(x,a)∈I,则说x具有属性a,记为xIa。
在形式背景(U,A,I)下,若对象子集XU,属性子集BA,分别定义运算算子X?
*和B?
*为
X?
*={a|a∈A,?
x∈X,xIa}
B?
*={x|x∈U,?
a∈B,xIa}
其中:
X?
*表示X中所有对象共同具有的属性的集合,B?
*表示共同具有B中所有属性的对象集合。
定义10形式概念。
设(U,A,I)为形式背景,如果一个二元组(X,B)满足X?
*=B且B?
*=X,则称(X,B)是一个形式概念,简称概念。
其中,X称为概念的外延,B称为概念的内涵。
定义11[67]子概念、父概念。
如果(X?
1,B?
1)≤(X?
2,B?
2),且两者之间不存在与它们不同的概念(Y,C),满足(X?
1,?
B?
1)≤(Y,C)≤(X?
2,B?
2),则称(X?
1,B?
1)是(X?
2,B?
2)的子概念,(X?
2,B?
2)是(
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 粗糙 与其 计算 理论 结合 情况 进行 综述 研究