拉普拉斯矩阵

graph Laplacian 拉普拉斯矩阵

匿名 (未验证) 提交于 2019-12-03 00:08:02
graph Laplacian 拉普拉斯矩阵 拉普拉斯矩阵是个非常巧妙的东西,它是描述图的一种矩阵,在降维,分类,聚类等的领域有很广泛的应用。      其各个点之间的都有相应的边连接,我们用某个指标(这地方可以任意选择,比如欧氏距离、测地距离、或者高斯相似度等)来衡量两个点的相似度,表示为,没有边连接的其相似度自然为零,是个对称矩阵;某个点的与所有点的相似度之和,表示为;是个对角阵;我们的拉普拉斯矩阵则是         拉普拉斯映射就是直接在低维下找到样本,使得所有样本保持原来的相似度。   求解广义特征向量,取前几个非零最小特值对应的特向,即为原数据在低维下的表示。      谱图理论需要找个时间看看。 http://student.zjzk.cn/course_ware/web-gcsx/gcsx/chapter5/chapter5_2_1.htm http://blog.sciencenet.cn/blog-261330-751483.html http://blog.pluskid.org/?p=287 http://webcache.googleusercontent.com/search?q=cache:_85fSHsIv3MJ:https://zh.wikipedia.org/zh-cn/%25E7%2589%25B9%25E5%25BE%2581%25E5

GCN

旧街凉风 提交于 2019-12-01 02:32:46
REFERENCE: https://www.jianshu.com/p/ad528c40a08f https://www.zhihu.com/question/54504471 Notes: 离散卷积的本质是加权求和 CNN中的卷积本质上就是利用一个共享参数的过滤器(kernel),通过计算中心像素点以及相邻像素点的加权和来构成feature map实现空间特征的提取,当然加权系数就是卷积核的权重系数。 那么卷积核的系数如何确定的呢?是随机化初值,然后根据误差函数通过反向传播梯度下降进行迭代优化。这是一个关键点,卷积核的参数通过优化求出才能实现特征提取的作用,GCN的理论很大一部分工作就是为了引入可以优化的卷积参数。 CNN在Computer Vision里效果为什么好呢?原因:可以很有效地提取空间特征。 但是有一点需要注意:CNN处理的图像或者视频数据中像素点(pixel)是排列成成很整齐的矩阵。(欧几里得距离Euclidean Structure) 与之相对应,科学研究中还有很多Non Euclidean Structure的数据,如图3所示。社交网络、信息网络中有很多类似的结构。 Graph Convolutional Network中的Graph是指数学(图论)中的用顶点和边建立相应关系的拓扑图。 那么为什么要研究GCN? 原因有三: 1)CNN无法处理Non

机器学习中拉普拉斯矩阵、散射矩阵、奇异矩阵、正定矩阵

时间秒杀一切 提交于 2019-11-30 13:19:17
拉普拉斯矩阵 图论的数学领域中的拉普拉斯矩阵(也被称为导纳矩阵,吉尔霍夫矩阵或离散拉普拉斯)是图的矩阵表示。 拉普拉斯矩阵 结合 吉尔霍夫理论 可以用来计算图的最小生成树的个数。拉普拉斯矩阵还可用来寻找图的其他属性:谱图理论spectral graph theory. 黎曼几何的Cheeger不等式有涉及了拉普拉斯矩阵的离散模拟。这或许是谱图理论中最重要的定理也是在算法应用中最有用的facts.它通过拉普拉斯矩阵的第二特征值来近似图的最小割。 拉普拉斯矩阵是 度矩阵 和 邻接矩阵的差。度矩阵是一个对角矩阵,其包含了每个顶点的度。在处理有向图时,根据应用来选择入度或出度。 属性: 1.拉普拉斯矩阵是半正定矩阵。 2.特征值中0出现的次数就是图连通区域的个数。 3.最小特征值永远是0,因为每个拉普拉斯矩阵对应特征向量[1,1,1,1,...,1]Lv=0. 4.最小的非0特征值称为谱隙spectral gap. 5. 6.最小非零特征值是图的代数连通度。 散射矩阵 假设散射源为很好的定域散射源,与被散射粒子的相互作用局限在有限的空间范围内,那么,无穷远时间以前粒子处于一个自由态,称为入态,记为|Ψ>in;无穷远时间之后粒子也是处于一个自由态,称为出态,记为 |Ψ>out。 入态到初态,相互作用可以用一个矩阵描述,记为S,那么就有: |Ψ>out=S |Ψ>in 奇异矩阵  

graph Laplacian 拉普拉斯矩阵

主宰稳场 提交于 2019-11-29 20:48:23
graph Laplacian 拉普拉斯矩阵 拉普拉斯矩阵是个非常巧妙的东西,它是描述图的一种矩阵,在降维,分类,聚类等 机器学习 的领域有很广泛的应用。 什么是拉普拉斯矩阵 拉普拉斯矩阵   先说一下什么是拉普拉斯矩阵,英文名为Laplacian matrix,其具体形式得先从图说起,假设有个无向图如下所示,      其各个点之间的都有相应的边连接,我们用某个指标(这地方可以任意选择,比如欧氏距离、测地距离、或者高斯相似度等)来衡量两个点的相似度,表示为,没有边连接的其相似度自然为零,是个对称矩阵;某个点的与所有点的相似度之和,表示为;是个对角阵;我们的拉普拉斯矩阵则是 拉普拉斯矩阵的性质   性质:   (1)是半正定矩阵。   (2)的最小特值为0,对应特向为全1列向量。   (3)对有个非负实特征值,.   (4)对于任意一个属于实向量,都有此公式成立:      它又有什么用处呢?跟目标是有关系的,哈哈~   证明如下:  为的实数列向量            因为所以               拉普拉斯特征映射   拉普拉斯特征映射将处于流形上的数据,在尽量保留原数据间相似度的情况下,映射到低维下表示。   其步骤如下:   1. 构造近邻图(用近邻图图近似流形)     1.1 近邻条件, 表示第个样本。     1.2 K近邻   2. 计算边权重

test

Deadly 提交于 2019-11-28 01:36:49
3.3 为什么GCN要用拉普拉斯矩阵? 拉普拉斯矩阵是对称矩阵,可以进行特征分解(谱分解),这与GCN的spectral domain相对应 通过拉普拉斯算子可以与拉普拉斯矩阵进行类比 由于卷积在傅里叶域的计算相对简单,为了在graph上做傅里叶变换,需要找到graph的连续的正交基对应于傅里叶变换的基,因此要使用拉普拉斯矩阵的特征向量。 来源: https://www.cnblogs.com/yyl424525/p/11386060.html