图神经网络(GNN)目前的主流实现方式就是节点之间的信息汇聚,也就是类似于卷积网络的邻域加权和,比如图卷积网络(GCN)、图注意力网络(GAT)等。下面根据GCN的实现原理使用Pytorch张量,和调用torch_geometric包,分别对Cora数据集进行节点分类实验。
Cora是关于科学文献之间引用关系的图结构数据集。数据集包含一个图,图中包括2708篇文献(节点)和10556个引用关系(边)。其中每个节点都有一个1433维的特征向量,即文献内容的嵌入向量。文献被分为七个类别:计算机科学、物理学等。
GCN计算流程
对于某个GCN层,假设输入图的节点特征为$Xin R^{|V| imes F_{in}}$,边索引表示为序号数组$Eiin R^{2 imes |E|}$,GCN层输出$Yin R^{|V| imes F_{out}}$。计算流程如下:
0、根据$Ei$获得邻接矩阵$A_0in R^{|V| imes |V|}$。
1、为了将节点自身信息汇聚进去,每个节点添加指向自己的边,即 $A=A_0+I$,其中$I$为单位矩阵。
2、计算度(出或入)矩阵 $D$,其中 $D_{ii}=sum_j A_{ij}$ 表示第 $i$ 个节点的度数。$D$为对角阵。
3、计算对称归一化矩阵 $hat{D}$,其中 $hat{D}_{ii}=1/sqrt{D_{ii}}$。
4、构建对称归一化邻接矩阵 $ ilde{A}$,其中 $ ilde{A}= hat{D} A hat{D}$。
5、计算节点特征向量的线性变换,即 $Y = ilde{A} X W$,其中 $X$ 表示输入的节点特征向量,$Win R^{F_{in} imes F_{out}}$ 为GCN层中待训练的权重矩阵。
即:
$Y=D^{-0.5}(A_0+I)D^{-0.5}XW$
在torch_geometric包中,normalize参数控制是否使用度矩阵$D$归一化;cached控制是否缓存$D$,如果每次输入都是相同结构的图,则可以设置为True,即所谓转导学习(transductive learning)。另外,可以看到GCN的实现只考虑了节点的特征,没有考虑边的特征,仅仅通过聚合引入边的连接信息。
GCN实验
调包实现
Cora的图数据存放在torch_geometric的Data类中。Data主要包含节点特征$Xin R^{|V| imes F_v}$、边索引$Eiin R^{2 imes |E|}$、边特征$Eain R^{|E| imes F_e}$等变量。首先导出Cora数据:
from torch_geometric.datasets import Planetoid cora = Planetoid(root='./data', name='Cora')[0] print(cora)