相似度的计算Word文档格式.docx
- 文档编号:17356824
- 上传时间:2022-12-01
- 格式:DOCX
- 页数:15
- 大小:72.73KB
相似度的计算Word文档格式.docx
《相似度的计算Word文档格式.docx》由会员分享,可在线阅读,更多相关《相似度的计算Word文档格式.docx(15页珍藏版)》请在冰豆网上搜索。
同皮尔森相似度一样,该相似度也没有考虑重叠数对结果的影响,同样地,Mahout通过增加一个枚举类型(Weighting)的参数来使得重叠数也成为计算相似度的影响因子。
1.3Cosine相似度(CosineSimilarity)
Cosine相似度被广泛应用于计算文档数据的相似度:
名理用明
类原范说
:
UncenteredCosineSimilarity
多维空间两点与所设定的点形成夹角的余弦值。
[-1,1],值越大,说明夹角越大,两点相距就越远,相似度就越小。
在数学表达中,如果对两个项的属性进行了数据中心化,计算出来的余弦相似度和皮尔森相似度是一样的,在mahout中,实现了数据中心化的过程,所以皮尔森相似度值也是数据中心化后的余弦相似度。
另外在新版本中,Mahout提供了UncenteredCosineSimilarity类作为讣算非中心化数据的余弦相似度。
1.4Spearman秩相关系数--SpearmanCorrelation
SpearmanCorrelationSimilarity
Spearman秩相关系数通常被认为是排列后的变量之间的Pearson线性相关系数。
范围:
{-1.0,1.0},当一致时为1・0,不一致时为-1.0o
计算非常慢,有大量排序。
针对推荐系统中的数据集来讲,用Spearman秩相关系数作为相似度量是不合适的。
1.5Tanimoto系数(TanimotoCoefficient)
Tanimoto系数也称为Jaccard系数,是Cosine相似度的扩展,也多用于讣算文档数据的相似度:
W』)二—二「_斗网
TanimotoCoefficientSimilarity
乂名广义Jaccard系数,是对Jaccard系数的扩展,等式为范用:
[0,1],完全重叠时为1,无重叠项时为0,越接近1说明越相似。
说明:
处理无打分的偏好数据。
1.6对数似然相似度
LogLikelihoodSimilarity
重叠的个数,不重叠的个数,都没有的个数
处理无打分的偏好数据,比Tanimoto系数的讣算方法更为智能。
1.7曼哈顿距离
CityBlockSimilarity
曼哈顿距离的实现,同欧式距离相似,都是用于多维数据空间距离的测度范围:
[0,1],同欧式距离一致,值越小,说明距离值越大,相似度越大。
比欧式距离计算量少,性能相对髙。
2各相似度计算方法优缺点分析
2・1基于皮尔森相关性的相似度一Pearson
correlation一basedsimilarity
皮尔森相关系数反应了两个变量之间的线性相关程度,它的取值在[-1,1]之间。
当两个变量的线性关系增强时,相关系数趋于1或-1:
当一个变量增大,另一个变量也增大时,表明它们之间是正相关的,相关系数大于0:
如果一个变量增大,另一个变量却减小,表明它们之间是负相关的,相关系数小于0:
如果相关系数等于0,表明它们之间不存在线性相关关系。
用数学公式表示,皮尔森相关系数等于两个变量的协方差除于两个变量的标准差。
%严(D((m))
Je(X2)-S2(Z)7^(?
2)-E2(X)
(乞剧
5J吃屮_送疔J吃厂_(艺卩)2p"
一「^
协方差(Covariance):
在槪率论和统计学中用于衡量两个变量的总体误差。
如果两个变量的变化趋于一致,也就是说如果英中一个大于自身的期望值,另一个也大于自身的期望值,那么两个变量之间的协方差就是正值;
如果两个变量的变化趋势相反,则协方差为负值。
其中U表示X的期望E(X),V表示Y的期望E(Y)o
MX,y)=E((x-M)(r-/>
)),
标准差(StandardDeviation):
■]N
呵苗…尸
o=JE((X—E(X))2)=JE(X2)一(E(X))2
方差(Variance):
在概率论和统计学中,一个随机变量的方差表述的是它的离散程度,也就是该变量与期望值的距离
Var(X)=E(X2)-E2(X)
即方差等于误差的平方和的期望,基于皮尔森相关系数的相似度有两个缺点:
(1)没有考虑用戸间重叠的评分项数量对相似度的影响:
(2)如果两个用户之间只有一个共同的评分项,相似度也不能被讣算。
Item101
User1
5.0
User2
2.0
User3
2.5
User4
User5
4.0
Item102
Item103
3.0
-
CorrelationwithUser1
1.000
-0.764
0.945
上表中,行表示用户(1〜5)对项目
(101〜103)的一些评分值。
直观来看,Userl和
User5用3个共同的评分项,并且给出的评分值差也不大,按理他们之间的相似度应该比
Userl和User4之间的相似度要髙,可是Userl和User4有一个更高的相似度K
例子:
同样的场景在现实生活中也经常发生,比如两个用户共同观看了200部电影,虽然不一左给出相同或完全相近的评分,他们之间的相似度也应该比另一位只观看了2部相同电影的相似度髙吧!
但事实并不如此,如果对这两部电影,两个用户给出的相似度相同或很
相近,通过皮尔森相关性计算出的相似度会明显大于观看了相同的200部电影的用户之间的相似度。
Mahout对基于皮尔森相关系数的相似度给出了实现,它依赖一个DataModel作为输入。
®
FearsonCorrelationSimilarity
©
•'
FearsonCorrelationSimilai-ity(DataModel)
回FearsonCorrelationSimilai-ity(DataHodel^Weighting)
P(
1byyrlies
同时,Mahout还针对缺点⑴进行了优化,只需要在构造PearsonCorrelationSimParity时多传入一个Weighting.WEIGHTED参数,就能使有更多相同评分项目的用户之间的相似度更趋近于1或
[java]:
1.UserSimilaritysimilarityl=newPearsonCorrelationSimilarity(model);
2.doublevaluel=similarity1・userSimilarit5r(l,4);
3.doublevalue2=similarity1・userSimilarity(1,5);
4.UserSimilaritysimilarity2=newPearsonCorrelationSimilarity(model,Weighting.LIGHTED);
5・doublevalue3=similarity1・userSimilarity(1,4);
6.doublevalue4=similarity2・userSimilarity(1,5);
结果:
Similarity
of
ofofof
Userl
and
andandand
User4:
0.9999999999999998
User5:
0.944911182523068
User4withweighting:
0.9999999999999999
User5withweighting:
0.986227795630767
Euclidean
2・2基于欧几里德距离的相似度
Distance-basedSimilarity
欧几里徳距藹计算相似度是所有相似度计算里面最简单、最易理解的方法。
它以经过人们一致评价的物品为坐标轴,然后将参与评价的人绘制到坐标系上,并计算他们彼此之间的直线距离。
Distance
SimilaritytoUser1
0.000
20
25
50
3937
0203
2.500
0.286
0.500
0.667
40
30
1118
0472
图中用户A和用户B分别对项目X、Y进行了评分。
用户A对项目X的评分为1.8,对项目Y的评分为4,表示到坐标系中为坐标点A(l.&
4):
同样用户B对项目X、Y的评分表示为坐标点B(4.5,2.5),因此他们之间的欧几里徳距离(直线距离)为:
d(・5二j沪)
讣算出来的欧几里徳距离是一个大于0的数,为了使英更能体现用户之间的相似度.可
以把它规约到(0,
1]之间,具体做法为:
1/(1+d)o参见上表。
只要至少有一个共同评分项,就能用欧几里徳距离讣算相似度:
如果没有共同评分项,那么欧几里徳距离也就失去了作用。
其实照常理理解,如果没有共同评分项,那么意味着这两个用户或物品根本不相似。
余弦相似度用向量空间中两个向量夹角的余弦值作为衡量两个个体间差异的大小。
相比距离度咼,余弦相似度更加注重两个向量在方向上的差异,而非距离或长度上。
shn\X.Y)=cost)=
与欧几里徳距离类似,基于余弦相似度的讣算方法也是把用户的喜好作为n-维坐标系中的一个点,通过连接这个点与坐标系的原点构成一条直线(向量),两个用户之间的相似度值就是两条直线(向虽:
)间夹角的余弦值。
因为连接代表用户评分的点与原点的直线都会相交于原点,夹角越小代表两个用户越相似,夹角越大代表两个用戸的相似度越小。
同时在三角系数中,角的余弦值是在[-1,1]之间的,0度角的余弦值是1,180角的余弦值是-1。
借助三维坐标系来看下欧氏距离和余弦相似度的区别:
dist(A’B)
从图上可以看岀距离度量衡量的是空间各点间的绝对距离,跟各个点所在的位苣坐标
(即个体特征维度的数值)直接相关:
而余弦相似度衡量的是空间向量的夹角,更加的是体现在方向上的差异,而不是位程。
如果保持A点的位置不变,B点朝原方向远离坐标轴原点,那么这个时候余弦相似度cos是保持不变的,因为夹角不变,而A、B两点的距离显然在发生改变,这就是欧氏距离和余弦相似度的不同之处。
0・796「
■
•
l.OOO^
0.997-
0.995“
余弦相似度的特点:
1.对用户的绝对的数值不敏感
2.计算时不考虑用户之间的共同评分项数量,即使仅仅有极少相同评分项,也有可能获得很大的相似度结果,例如上表中的uer3与userl.
3.只要各个评分项之间越趋向于对应成比例,而不论数值差异如何,则相似度越趋近
于1.000.
根据欧氏距离和余弦相似度各自的汁算方式和衡量特征,分别适用于不同的数据分析模型:
欧氏距离能够体现个体数值特征的绝对差异,所以更多的用于需要从维度的数值大小中体现差异的分析,如使用用户行为指标分析用户价值的相似度或差异;
而余弦相似度更多的是从方向上区分差异,而对绝对的数值不敏感,更多的用于使用用户对内容评分来区分用兴趣的相似度和差异,同时修正了用户间可能存在的度量标准不统一的问题(因为余弦相似度对绝对数值不敏感)。
注:
根据以上的分析,余弦相似度更适合于这样一类数据的挖掘工作:
1.计算结果对用户数据绝对值不敏感,例如在描述用户的兴趣、喜好、或用于情感分析时。
2.用户数据中的评分值苴实是用户主观的评分结果,换言之,每个用户的评价标准是不一致的,有一些对于“好的”界左标准更为苛刻,而另一些则对于“好”、“不好”的界上则更为宽容。
这种情况下,用余弦相似度来讣算用户之间的相似度或差异,
可以弱化度量标准不统一这一因素,Eg:
模糊度虽标准
“很不好”
靛不好”
“较好”
“很好"
Userl的评价标准
1.0
3.5
User2的评价标准
User3的评价标准
上表中userl和use"
的评价标准很相似,都是较为“苛刻的Suser2,相比之下显得更为“宽容”。
Item
ItemOOl
Item002
Item003
Userl的评价
User2的评价
4.5
User3的评价
3.5
从数值上看,显然userl和uset3的评分值更为接近,似乎相似度更髙;
而user2的评分值相较userl差异较大。
1・UserSimilaritysimilarity!
=newUncenteredCosineSimilarity(model);
2・doublevaluel=similarity1・userSimilarity(1,2);
3・doublevalue2=similarity1・userSimilarity(1,3);
4・UserSimilaritysimilarity2=newEuclideanDistanceSimilarity(model);
5・doublevalue3=similarity2・userSimilarity(1,2);
6・doublevalue4=similarity2・userSimilarity(1,3);
计算结果:
User2
User3
using
cos:
0.9927441515592047
0.9801293311529091
0.45657137141714005
cos:
Euc:
SimilarityofUserlandUser3usingEuc:
0.4721359549995794
但是,余弦相似度的计算则揭示了:
User2与userl之间的相似度>User3与userl之间的相似度。
但如果用欧氏距离想速度则:
U^r2与us亡rl之间的相似度<User3与userl。
2.4调整余弦相似度
AdjustedCosineSimilarity
在余弦相似度的介绍中说到:
余弦相似度更多的是从方向上区分差异,而对绝对的数值不敏感。
因此没法衡量每个维数值的差异,会导致这样一个情况:
比如用户对内容评分,5分制,X和Y两个用户对两个内容的评分分别为(1,2)和(4,5),使用余弦相似度得出的结果是0.98,两者极为相似,但从评分上看X似乎不喜欢这两个内容,而Y比较喜欢,余弦相似度对数值的不敏感导致了结果的误差,需要修正这种不合理性,就出现了调整余弦相似度,即所有维度上的数值都减去一个均值,比如X和Y的评分均值都是3,那么调整后为(-2,-1)和(1,2),再用余弦相似度计算,得到-0.8,相似度为负值并且差异不小,但显然更加符合现实。
2.5斯皮尔曼相关
SpearmanCorreiation
斯皮尔曼相关性可以理解为是排列后(Rank)用户喜好值之间的Pearson相关度。
《MahoutinAction))中有这样的解释:
假设对于每个用户,我们找到他最不喜欢的物品,重写他的评分值为“1”:
然后找到下一个最不喜欢的物品,重写评分值为“2”,依此类推。
然后我们对这些转换后的值求Pearson相关系数,这就是Spearman相关系数。
斯皮尔曼相关度的计算舍弃了一些重要信息,即真实的评分值。
但它保留了用户喜好值的本质特性一一排序(ordering),它是建立在排序(或等级,Rank)的基础上计算的。
回顾前面表中Userl〜5对ItemlOl〜103的喜好(评分)值,通过斯皮尔曼相关系数汁算出的相似度为:
CorrelationtoUser1
-1.0
我们发现,计算岀来的相似度值要么是1,要么是因为这依赖于用户的喜好值和Userl的喜好值是否趋于“一致变化”还是呈"
相反趋势变化"
。
Mahout对斯皮尔曼相关系数给岀了实现,具体可参考SpearmanCorrelationSimParity,它的执行效率不是非常髙,因为斯皮尔曼相关性的讣算需要花时间计算并存储喜好值的一个排序(Ranks),具体时间取决于数据的数量级大小。
正因为这样,斯皮尔曼相关系数一般用于学术研究或者是小规模的计算。
Java]:
UserSimilaritysimilarity!
=newSpearmanCorre1ationSim1larity(model);
//constructaSpearmanCorrelation-basedSimilarity结果:
to
-1.0
NaN
考虑到SpearmanCorrelation的效率,可以把SpearmanCorre1ationSimParity包装一层Cache,具体做法为:
Ijava]:
UserSimilaritysimilarity?
=newCachingUserSimilarity(newSpearmanCorrelationSimilarity(model),model):
这样,每次计算的结果会直接放入Cache,下一次计算的时候可以立即得到结果,而不是重新再计算一次。
Spearman相关系数的特点:
1.Spearman相关是根据等级资料研究两个变疑间相关关系的方法。
它是依据两列成对等级的各对等级数之差来进行计算的,所以又称为“等级差数法”
2.Spearman相关系数对原始变量的分布不做要求,属于非参数统计方法。
因此它的适用范围比Pearson相关系数要广的多。
即使原始数据是等级资料也可以计算Spearman相关系数。
对于服从Pearson相关系数的数据也可以汁算Spearman相关系数,
3.统计效能比Pearson相关系数要低一些(不容易检测出两者事实上存在的相关关系)。
4.spearman只要两个变量的观测值是成对的等级评左资料,或者是由连续变量观测资料转化得到的等级资料,不论两个变量的总体分布形态、样本容量的大小如何,都可以用斯皮尔曼等级相关来进行研究。
spearman与pearson:
1.连续数据,正态分布,线性关系,用pearson相关系数是最恰当,当然用spearman相关系数也可以,就是效率没有pearson相关系数髙。
2.上述任一条件不满足,就用spearman相关系数,不能用pearson相关系数。
3.两个上序测量数据之间也用spearman相关系数,不能用pearson相关系数。
4.只要在X和Y具有单调的函数关系的关系,那么X和Y就是完全Spearman相关的,这与Pearson相关性不同,后者只有在变量之间具有线性关系时才是完全相关的。
6.基于谷本系数的相似性度量TanimotoCoefficient-based
TanimotoCoefficient和前而的5中相关度讣算方式有很大的不同,它不关心用戸对物品的具体评分值是多少,它关心用户与物品之间是否存在关联关系。
TanimotoCoefficient依赖于用户和物品之间的这种Boolean关系作为输入。
更准确的说法为:
TanimotoCoefficient主要用于计算符号度量或布尔值度量的个体间的相似度,因为个体的特征属性都是由符号度虽或者布尔值标识,因此无法衡量差异具体值的大小,只能获得"
是否相同”这个结果,所以TanimotoCoefficient只关心个体间共同具有的特征是否一致这个问
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 相似 计算