GNN Pooling(九):Structure-Feature based Graph Self-adaptive Pooling,WWW2020

孤街浪徒 提交于 2020-08-10 17:21:46


文本一共有…九个作者,分别来自西安电子科技大学,Shanghai BNC,Murdoch University以及University of Western Australia。
本文提出了一种新的图自适应池化方法( GSAPool),其目的如下:(1)构建合理的池化图拓扑,同时考虑了图的结构和特征信息,在节点选择上提供了更高的准确性和客观性;(2)使合并的节点包含足够有效的图信息,在丢弃不重要节点之前对节点特征信息进行聚合;因此,被选中的节点包含来自邻居节点的信息,可以增强未被选中节点特征的使用。在四个不同数据集上的实验结果表明,我们的方法在图分类方面是有效的,并且优于现有的图池方法。

PROPOSED METHODS

池化的结构包含三部分:the structure-based topology learning (SBTL), the feature-based topology learning (FBTL), and the structure-feature topology learning (SFTL),如下图所示。
在这里插入图片描述
GSAPool的包括两部分:池拓扑学习和节点特征融合。SBTL和FBTL分别聚合结构上的特征(通过GCN)和本身特征的一个重要程度的筛选(MLP)。GCN如下:
在这里插入图片描述
或者也可以替换成其他的GNN架构:
在这里插入图片描述
然后,对SBTL和FBTL的结果进行一个加权求和。求和之后的结果进行top-k的筛选,作为池化之后的结果。
在这里插入图片描述
此外,为了使用未选择节点的信息,我们必须在丢弃节点之前对其特征进行聚合,也就是节点特征融合。在融合的时候考虑了多跳信息:
在这里插入图片描述
可以看到图中的abc分别代表无融合,1-hop和2-hop。本文评估了两种不同的聚合信息方式:GCNConv以及GAT。利用这些融合方法,所选择的节点可以携带来自邻近节点的特征信息。这样,池化结果可以很好地表示整个图。
为了比较公平,我们的实验采用SAGPool[20]的模型架构。所有的比较方法和我们的方法使用相同的架构。图3显示了模型架构的细节。
在这里插入图片描述











实验

还是先看数据集:
在这里插入图片描述
对于池化比率,使用了三个值:0.25、0.5和0.75。当池化比为0.25时,由于所选择的特征信息较少,池化方法的性能不是很好。当池化比为0.75时,由于图保留了过多的冗余信息,性能不太好。因此,最终取0.5作为池率。α是一个经验值,几个值被测试以找出最好的:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
最后是可视化的效果,可以见到所提出的GSAPool的特征(在第二行)比SAGPool的特征(在第一行)更容易区分。
在这里插入图片描述










易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!