Skip to content

AGCN

接下来的几篇文章将会就对GCN从不同方面考虑进行优化进行介绍。首先介绍AGCN即Adaptive Graph Convolutional Neural Networks,该方法通过改变拉普拉斯矩阵优化GCN性能。

符号

G=(V,E)L=ID12AD12L=UΛUT,Fourier transform:F=UTx

问题与解决思路

先前研究表明,gθ=kK1θkΛk,这是K局部化的,并且θk控制了距离中心点远近与其重要性之间的联系。

WARNING

在上式表示中,默认距离是影响重要性衡量指标θk的唯一因素,使得重要性一圈一圈散布开来,这限制了卷积核的灵活性。同时,这假定了两个顶点相似性本质由选择的度量和特征域决定的。但数据本身是非欧式空间的,这表明以距离作为一种衡量或许并不是最优选择,连接节点间的相似性恐怕低于未连接节点(例如分子间化学键)。

解决
参数化L,将L中包含的图连通性、点度等拓扑信息转化为与特征值X,拉普兰拉丝矩阵有关的可学习参数。

gθ(Λ)=k=0K1(F(L,X,Γ))k

其中,X为特征,L为归一化拉普拉斯矩阵,Γ为可学习参数。我们定义了新的SGC-LL层

y=Ugθ(Λ)UTX=Uk=0K1(F(L,X,Γ))kUTX

在对其进行设计时,由于欧式距离不再作为衡量相似性的最佳标准,我们利用广义马氏距离D(xi,xj)=(xixj)TM(xixj),这里M=wdwdT为一个半正定矩阵,其中wd为我们设计的可学习参数向量。使用广义马氏距离下的高斯核Gxixj=expD(xi,xj)2σ2,其中σ2为距离方差。对G执行归一化操作,记结果为A~
由于在实际操作中,没有先验知识使我们能够合理的初始化M(由于一般情况下不同的领域需要不同M0),这会导致收敛时间长等一系列问题。在实践中,假设最优图L^与原始的拉普拉斯矩阵L相差不大,通过该假设

L^=L+Lres

我们只需要对Lres进行学习即可,这里Lres=ID~12A~D~12。 为了增加模型的表达能力,在卷积曾添加了线性变换层和偏置,即最终模型下

H(l+1)=Ugθ(Λ)UTH(l)XW+bL^=L+αLres

其中$W,b,M,\alpha为可学习的参数。

WARNING

因为U为一个稠密矩阵,对其运算增加算法复杂度。

解决
利用Chebychev expansion

说明

文中设计的SGC-LL层参数为O(di1×di)N无关,可以接受。