Skip to content
CMake

CMake,缝缝补补也能用,最好还是了解了解

Combinatorial Optimizition

组合优化课程笔记

Effects of GC

8-th,自GNN面世后,衍生了很多的变式,也存在很多实际的应用。但对向神经网络中添加卷积算子的意义本身,却缺乏理论上的证明,本文将携带卷积算子的神经网络与不使用图信息的神经网络进行对比,从理论出发给出严密的证明。参考Effects of graph convolutions in multi-layer networks

ACMP

7-th,本文从神经信息传递的角度推到出模型并从能量函数的角度给出理论证明。参考Acmp:Allen-cahn message passing with attractive and repulsive forces for graph neural networks

GCNII

6-th,参考SEMI-surperised classification with graph convolutional networks

AGCN

5-th,考虑到在GCN模型中,由于表达与邻接矩阵直接相关,邻居节点的重要性由中心节点一圈一圈向外散布,这限制了卷积核的flexibility。这里考虑通过学习广义马氏距离替代邻接矩阵,实现对拉普拉斯矩阵的参数化设计,增加模型的表达能力。参考Adaptive Graph Convolutional Neural Networks。

GCN

4-th,参考SEMI-surperised classification with graph convolutional networks

Eigenvalues of the Laplacian

3-rd,给出拉普拉斯矩阵特征值范围[0,2]的证明。

ChebNet

2-nd,参考Convolution Neural Networks on Graphs with Fast Localized Spectral Filtering

Basic graph convolution operator

1-st,参考《深入浅出图神经网络》。