从图(Graph)到图卷积(Graph Convolution):漫谈图神经网络模型 (三)
本文属于图神经网络的系列文章,文章目录如下: 从图(Graph)到图卷积(Graph Convolution):漫谈图神经网络模型 (一) 从图(Graph)到图卷积(Graph Convolution):漫谈图神经网络模型 (二) 从图(Graph)到图卷积(Graph Convolution):漫谈图神经网络模型 (三) 恭喜你看到了本系列的第三篇!前面两篇博客分别介绍了基于循环的图神经网络和基于卷积的图神经网络,那么在本篇中,我们则主要关注在 得到了各个结点的表示后,如何生成整个图的表示 。其实之前我们也举了一些例子,比如最朴素的方法,例如图上所有结点的表示取个均值,即可得到图的表示。那有没有更好的方法呢,它们各自的优点和缺点又是什么呢,本篇主要对上面这两个问题做一点探讨。篇幅不多,理论也不艰深,请读者放心地看。 图读出操作(ReadOut) 图读出操作,顾名思义,就是用来生成图表示的。它的别名有图粗化( 翻译捉急 ,Graph Coarsening)/图池化(Graph Pooling)。对于这种操作而言,它的核心要义在于: 操作本身要对结点顺序不敏感 。 这是为什么呢?这就不得不提到图本身的一些性质了。我们都知道,在欧氏空间中,如果一张图片旋转了,那么形成的新图片 就不再是原来那张图片 了;但在非欧式空间的图上,如果一个图旋转一下,例如对它的结点重新编号