相似原理

相关系数之余弦相似度

∥☆過路亽.° 提交于 2020-03-05 04:56:43
向量余弦相似度 余弦距离,也称为余弦相似度,是用向量空间中两个向量夹角的余弦值作为衡量两个个体间差异的大小的度量。 余弦值越接近1,就表明夹角越接近0度,也就是两个向量越相似,夹角等于0,即两个向量相等,这就叫"余弦相似性"。 上图两个向量a,b的夹角很小可以说a向量和b向量有很高的的相似性,极端情况下,a和b向量完全重合。如下图: 如上图二:可以认为a和b向量是相等的,也即a,b向量代表的文本是完全相似的,或者说是相等的。如果a和b向量夹角较大,或者反方向。如下图 如上图三: 两个向量a,b的夹角很大可以说a向量和b向量有很底的的相似性,或者说a和b向量代表的文本基本不相似。那么是否可以用两个向量的夹角大小的函数值来计算个体的相似度呢? 向量空间余弦相似度理论就是基于上述来计算个体相似度的一种方法。下面做详细的推理过程分析。 想到余弦公式,最基本计算方法就是初中的最简单的计算公式, 计算夹角 的余弦定值公式为: 但是这个是只适用于直角三角形的,而在非直角三角形中,余弦定理的公式是 三角形中边a和b的夹角 的余弦计算公式为: 公式(2) 余弦定理推导过程: 方法一: 方法二: 在向量表示的三角形中,假设a向量是(x1, y1),b向量是(x2, y2),那么可以将余弦定理改写成下面的形式: 向量a和向量b的夹角 的余弦计算如下 向量点乘及推导过程: 点乘的结果是一个标量

余弦距离、欧氏距离和杰卡德相似性度量的对比分析

孤街浪徒 提交于 2020-02-04 14:11:59
1、余弦距离 余弦距离,也称为余弦相似度,是用向量空间中两个向量夹角的余弦值作为衡量两个个体间差异的大小的度量。 向量,是多维空间中有方向的线段,如果两个向量的方向一致,即夹角接近零,那么这两个向量就相近。而要确定两个向量方向是否一致,这就要用到余弦定理计算向量的夹角。 余弦定理描述了三角形中任何一个夹角和三个边的关系。给定三角形的三条边,可以使用余弦定理求出三角形各个角的角度。假定三角形的三条边为a,b和c,对应的三个角为A,B和C,那么角A的余弦为: 如果将三角形的两边b和c看成是两个向量,则上述公式等价于: 其中分母表示两个向量b和c的长度,分子表示两个向量的内积。 举一个具体的例子,假如新闻X和新闻Y对应向量分别是: x1, x2, ..., x6400和 y1, y2, ..., y6400 则,它们之间的余弦距离可以用它们之间夹角的余弦值来表示: 当两条新闻向量夹角余弦等于1时,这两条新闻完全重复(用这个办法可以删除爬虫所收集网页中的重复网页);当夹角的余弦值接近于1时,两条新闻相似(可以用作文本分类);夹角的余弦越小,两条新闻越不相关。 2、余弦距离和欧氏距离的对比 从上图可以看出,余弦距离使用两个向量夹角的余弦值作为衡量两个个体间差异的大小。相比欧氏距离,余弦距离更加注重两个向量在方向上的差异。 借助三维坐标系来看下欧氏距离和余弦距离的区别: 从上图可以看出

「论文翻译」NeoDTI: neural integration of neighbor information from a HeteroN for discovering new DTIs

余生长醉 提交于 2020-02-01 09:08:41
Bioinformaties 2018 (B类) 文章目录 Abstract Introduction 2 Materials and methods 2.1 Problem formulation 2.2 The workflow of NeoDTI 3 Results 3.1 Datasets 3.2 NeoDTI yields superior performance in predicting new drug–target interactions 3.3 Robustness of NeoDTI 3.4 NeoDTI reveals novel DTIs with literature supports 4 Conclusion Abstract Motivation: 在计算机上准确预测药物-靶标相互作用(DTI)可以指导药物发现过程,从而促进药物开发。 采用系统生物学观点的DTI预测计算方法通常采用以下原理:药物和靶标的特性可以通过其在生物网络中的功能角色来表征。 Results:受信息传递和聚合技术的最新发展的启发,这些技术可以使卷积神经网络通用化以挖掘大规模图数据并大大提高许多与网络相关的预测任务的性能,我们开发了一种新的非线性端到端学习模型,称为NeoDTI,可整合来自异构网络数据的各种信息,并自动学习保留药物和靶标的拓扑结构表示,以促进DTI预测

K-means聚类算法原理及c++实现

孤人 提交于 2020-01-18 03:56:56
聚类是指根据数据本身的特征对数据进行分类,不需要人工标注,是无监督学习的一种。k-means算法是聚类算法中最简单的算法之一。 k-means 算法将n个数据对象划分为 k个聚类以便使得所获得的聚类满足:同一聚类中的对象相似度较高;而不同聚类中的对象相似度较小。聚类相似度是利用各聚类中对象的均值所获得一个“中心对象”(引力中心)来进行计算的。 基于这样一个假设,我们再来导出k-means所要优化的目标函数:设我们一共有N个数据点需要分为K个cluster,而k-means要做的就是要最小化这个目标函数 为第k个类聚中心, 当第n个数据属于第k类时为1,否则为0。 过程如下: 1.首先从n个数据对象任意选择 k 个对象作为初始聚类中心;而对于所剩下其它对象,则根据它们与这些聚类中心的相似度(距离),分别将它们分配给与其最相似的(聚类中心所代表的)聚类; 2.然后再计算每个所获新聚类的聚类中心(该聚类中所有对象的 均值 );不断重复这一过程直到标准测度函数开始收敛为止。 一般都采用均方差作为标准测度函数,k个聚类具有以下特点:各聚类本身尽可能的紧凑,而各聚类之间尽可能的分开。 每一次更新聚类中心都会使目标函数减小,因此迭代最终J会达到一个极小值,不能保证是全局最小值。k-means对于噪声十分敏感。 c++实现: class ClusterMethod { private:

余弦计算相似度度量

半城伤御伤魂 提交于 2019-12-24 00:24:35
相似度度量(Similarity),即计算个体间的相似程度,相似度度量的值越小,说明个体间相似度越小,相似度的值越大说明个体差异越大。 对于多个不同的文本或者短文本对话消息要来计算他们之间的相似度如何,一个好的做法就是将这些文本中词语,映射到向量空间,形成文本中文字和向量数据的映射关系,通过计算几个或者多个不同的向量的差异的大小,来计算文本的相似度。下面介绍一个详细成熟的向量空间余弦相似度方法计算相似度 向量空间余弦相似度(Cosine Similarity) 余弦距离,也称为余弦相似度,是用向量空间中两个向量夹角的余弦值作为衡量两个个体间差异的大小的度量。 余弦值越接近1,就表明夹角越接近0度,也就是两个向量越相似,这就叫"余弦相似性"。 上图两个向量a,b的夹角很小可以说a向量和b向量有很高的的相似性,极端情况下,a和b向量完全重合。如下图: 如上图二:可以认为a和b向量是相等的,也即a,b向量代表的文本是完全相似的,或者说是相等的。如果a和b向量夹角较大,或者反方向。如下图 如上图三: 两个向量a,b的夹角很大可以说a向量和b向量有很低的的相似性,或者说a和b向量代表的文本基本不相似。那么是否可以用两个向量的夹角大小的函数值来计算个体的相似度呢? 向量空间余弦相似度理论就是基于上述来计算个体相似度的一种方法。下面做详细的推理过程分析。 想到余弦公式

爬取知乎如何通俗易懂地解释「协方差」与「相关系数」的概念?

和自甴很熟 提交于 2019-12-03 17:16:06
'最喜欢通俗易懂地解释一个事情。', '<b>一、协方差:', '可以通俗的理解为:两个变量在变化过程中是同方向变化?还是反方向变化?同向或反向程度如何?', '你变大,同时我也变大,说明两个变量是同向变化的,这时协方差就是正的。', '你变大,同时我变小,说明两个变量是反向变化的,这时协方差就是负的。', '从数值来看,协方差的数值越大,两个变量同向程度也就越大。反之亦然。', '咱们从公式出发来理解一下:', '', '公式简单翻译一下是:如果有X,Y两个变量,每个时刻的“X值与其均值之差”乘以“Y值与其均值之差”得到一个乘积,再对这每时刻的乘积求和并求出均值(其实是求“期望”,但就不引申太多新概念了,简单认为就是求均值了)。', '下面举个例子来说明吧:', '比如有两个变量X,Y,观察t1-t7(7个时刻)他们的变化情况。', '简单做了个图:分别用红点和绿点表示X、Y,横轴是时间。可以看到X,Y均围绕各自的均值运动,并且很明显是同向变化的。', '这时,我们发现每一时刻的值与的值的“正负号”一定相同(如下图:比如t1时刻,他们同为正,t2时刻他们同为负):', '所以,像上图那样,当他们同向变化时,与的乘积为正。这样,当你把t1-t7时刻与的乘积加在一起,求平均后也就是正数了。', '如果反向运动呢?', '很明显,的值与的值的“正负号”一定相反,于是与的乘积就是负值了

【机器学习】几种相似度算法分析

匿名 (未验证) 提交于 2019-12-03 00:30:01
最近开始研究推荐系统,其中常见的相似度算法有以下几种: 1. 欧几里得距离 欧几里得度量(euclidean metric)(也称欧氏距离)是一个通常采用的距离定义,指在m维空间中两个点之间的真实距离,或者向量的自然长度(即该点到原点的距离)。在二维和三维空间中的欧氏距离就是两点之间的实际距离。 注意事项: a.因为计算是基于各维度特征的绝对数值,所以欧氏度量需要保证各维度指标在相同的刻度级别,比如对身高(cm)和体重(kg)两个单位不同的指标使用欧式距离可能使结果失效。 b.欧几里得距离是数据上的直观体现,看似简单,但在处理一些受主观影响很大的评分数据时,效果则不太明显;比如,U1对Item1,Item2 分别给出了2分,4分的评价;U2 则给出了4分,8分的评分。通过分数可以大概看出,两位用户褒Item2 ,贬Item1,也许是性格问题,U1 打分更保守点,评分偏低,U2则更粗放一点,分值略高。在逻辑上,是可以给出两用户兴趣相似度很高的结论。如果此时用欧式距离来处理,得到的结果却不尽如人意。即评价者的评价相对于平均水平偏离很大的时候欧几里德距离不能很好的揭示出真实的相似度。 2. 皮尔逊相关系数 Pearson 相关系数是用协方差除以两个变量的标准差得到的,虽然协方差能反映两个随机变量的相关程度(协方差大于0的时候表示两者正相关,小于0的时候表示两者负相关)