AGCN
接下来的几篇文章将会就对GCN从不同方面考虑进行优化进行介绍。首先介绍AGCN即Adaptive Graph Convolutional Neural Networks,该方法通过改变拉普拉斯矩阵优化GCN性能。
符号
, ,,Fourier transform:
问题与解决思路
先前研究表明,,这是局部化的,并且控制了距离中心点远近与其重要性之间的联系。
WARNING
在上式表示中,默认距离是影响重要性衡量指标的唯一因素,使得重要性一圈一圈散布开来,这限制了卷积核的灵活性。同时,这假定了两个顶点相似性本质由选择的度量和特征域决定的。但数据本身是非欧式空间的,这表明以距离作为一种衡量或许并不是最优选择,连接节点间的相似性恐怕低于未连接节点(例如分子间化学键)。
解决
参数化,将中包含的图连通性、点度等拓扑信息转化为与特征值,拉普兰拉丝矩阵有关的可学习参数。
其中,为特征,为归一化拉普拉斯矩阵,为可学习参数。我们定义了新的SGC-LL层
在对其进行设计时,由于欧式距离不再作为衡量相似性的最佳标准,我们利用广义马氏距离,这里为一个半正定矩阵,其中为我们设计的可学习参数向量。使用广义马氏距离下的高斯核,其中为距离方差。对执行归一化操作,记结果为。
由于在实际操作中,没有先验知识使我们能够合理的初始化(由于一般情况下不同的领域需要不同),这会导致收敛时间长等一系列问题。在实践中,假设最优图与原始的拉普拉斯矩阵相差不大,通过该假设
我们只需要对进行学习即可,这里。 为了增加模型的表达能力,在卷积曾添加了线性变换层和偏置,即最终模型下
其中$W,b,M,\alpha为可学习的参数。
WARNING
因为为一个稠密矩阵,对其运算增加算法复杂度。
解决
利用Chebychev expansion
说明
文中设计的SGC-LL层参数为与无关,可以接受。