一文读懂图卷积神经网络(GCN)

本文围绕经典论文介绍GCN,解释其定义,即处理图结构数据的网络,输入为带特征的图,输出为节点特征。解析核心公式,通过添加自环、对称归一化邻接矩阵解决信息丢失和尺度问题,还提及在Cora数据集上的应用及数学证明参考。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

一文读懂图卷积神经网络(gcn) - 创想鸟

GCN 学习

本文讲的GCN理论知识来源于论文:

SEMI-SUPERVISED CLASSIFICATION WITH GRAPH CONVOLUTIONAL NETWORKS

这是在GCN领域最经典的论文之一

1. 什么是GCN

GCN结构图
一文读懂图卷积神经网络(GCN) - 创想鸟        

我们可以根据这个GCN的图看到,一个拥有 CC 个input channel的graph作为输入,经过中间的hidden layers,得到 FF 个 output channel的输出。

图卷积网络主要可以由两个级别的作用变换组成:

注意本文讲的图都特指无向无权重的图。

graph level:

例如说通过引入一些形式的pooling 操作. 然后改变图的结构。但是本次讲过GCN并没有进行这个级别的操作。所以看到上图我们的网络结构的输出和输出的graph的结构是一样的。

node level:

通常说node level的作用是不改变graph的结构的,仅通过对graph的特征/信号(特征信号 XX 作为输入:一个 N∗DN∗D 矩阵( NN: 输入图的nodes的个数, DD 输入的特征维度) ,得到输出 ZZ:一个 N∗FN∗F 的矩阵( FF 输出的特征维度)。

a) 一个特征描述(feature description) xixi : 指的是每个节点 ii 的特征表示

b) 每一个graph 的结构都可以通过邻接矩阵 AA 表示(或者其他根据它推导的矩阵)

举例:

我们可以很容易的根据一个邻接矩阵重构出一个graph。 例如下图: G=(V,E)G=(V,E) 其中 VV 代表节点, EE 代表边

一文读懂图卷积神经网络(GCN) - 创想鸟        

根据图,我们就可以得出下面的维度图和邻接矩阵

一文读懂图卷积神经网络(GCN) - 创想鸟        

论文公式提出

因为 AA 可以确定唯一的一张图,这么重要的一个属性我们肯定是要把他放到神经网络传递函数里面去的,所以网络中间的每一个隐藏层可以写成以下的非线性函数:

一文读懂图卷积神经网络(GCN) - 创想鸟        

其中输入层 H(0)=XH(0)=X , 输出层 H(L)=ZH(L)=Z , LL 是层数。 不同的GCN模型,采用不同 f(⋅,⋅)f(⋅,⋅)函数。

上面是我们理想中的函数的形式,论文中最终推导出来的函数是这样的:

一文读懂图卷积神经网络(GCN) - 创想鸟        

一文读懂图卷积神经网络(GCN) - 创想鸟        

论文公式逐步解析

每一个节点下一层的信息是由前一层本身的信息以及相邻的节点的信息加权加和得到,然后再经过线性变换 WW 以及非线性变换 σ()σ() 。

我们一步一步分解,我们要定义一个简单的f(H(l),A)f(H(l),A) 函数,作为基础的网络层。

可以很容易的采用最简单的层级传导(layer-wise propagation)规则:

f(H(l),A)=σ(AH(l)W(l))f(H(l),A)=σ(AH(l)W(l))

我们直接将 AHAH 做矩阵相乘,然后再通过一个权重矩阵 W(l)W(l)做线性变换,之后再经过非线性激活函数 σ(⋅)σ(⋅) , 比如说 ReLUReLU,最后得到下一层的输入 Hl+1Hl+1 。

In [ ]

import paddleA = paddle.to_tensor([    [0,1,0,0,1,0],    [1,0,1,0,1,0],    [0,1,0,1,0,0],    [0,0,1,0,1,1],    [1,1,0,1,0,0],    [0,0,0,1,0,0]],dtype='float32')print(A)H_0 = paddle.to_tensor([[1],[2],[3],[4],[5],[6]],dtype='float32')print(H_0)x = paddle.matmul(A,H_0)print(x)

       

Tensor(shape=[6, 6], dtype=float32, place=CUDAPlace(0), stop_gradient=True,       [[0., 1., 0., 0., 1., 0.],        [1., 0., 1., 0., 1., 0.],        [0., 1., 0., 1., 0., 0.],        [0., 0., 1., 0., 1., 1.],        [1., 1., 0., 1., 0., 0.],        [0., 0., 0., 1., 0., 0.]])Tensor(shape=[6, 1], dtype=float32, place=CUDAPlace(0), stop_gradient=True,       [[1.],        [2.],        [3.],        [4.],        [5.],        [6.]])Tensor(shape=[6, 1], dtype=float32, place=CUDAPlace(0), stop_gradient=True,       [[7. ],        [9. ],        [6. ],        [14.],        [7. ],        [4. ]])

       

从上面输出可以看的出来:每个值保留了相邻节点的值

输入层的 x1=[1]x1=[1] , 根据矩阵的运算公式我们可以很容易地得到下一层的该节点的表示 X1′=[7]X1′=[7], 也很容易发现 X1′(1)=x2+x5X1′(1)=x2+x5,而 x2,x5x2,x5就是节点1的相邻节点。

就是可以看图:

[1] = 2 + 5
[2] = 1+ 3 + 5
······
[6] = 4

所以我们 AHAH 就是快速将相邻的节点的信息相加得到自己下一层的输入。

但是这样就出现了新的问题:

问题一
我们虽然获得了周围节点的信息了,但是自己本身的信息却没了

解决方案:
对每个节点手动增加一条self-loop 到每一个节点,即 A^=A+IA=A+I
其中 II是单位矩阵identity matrix。

问题二
从上面的结果也可以看出,在经过一次的AHAH 矩阵变换后,得到的输出会变大,即特征向量 XX 的scale会改变,在经过多层的变化之后,将和输入的scale差距越来越大。

解决方案:
可以将邻接矩阵 AA 做归一化使得最后的每一行的加和为1,使得 AHAH 获得的是weighted sum。

我们可以将 AA 的每一行除以行的和,这就可以得到normalized的 AA 。而其中每一行的和,就是每个节点的度degree。

用矩阵表示则为: A=D−1AA=D−1A ,对于Aij=AijdiAij=diAij

代码展示:

In [8]

import paddleimport numpy as npA = paddle.to_tensor([    [0,1,0,0,1,0],    [1,0,1,0,1,0],    [0,1,0,1,0,0],    [0,0,1,0,1,1],    [1,1,0,1,0,0],    [0,0,0,1,0,0]],dtype='float32')print(A)D = paddle.to_tensor([    [2,0,0,0,0,0],    [0,3,0,0,0,0],    [0,0,2,0,0,0],    [0,0,0,3,0,0],    [0,0,0,0,3,0],    [0,0,0,0,0,1]], dtype='float32')print(D)# 防止为0时取倒数变成无穷大D[D==0] = D.max() + 1e100DD = paddle.reciprocal(D)print(DD)hat_A = paddle.matmul(DD,A)print(hat_A)

       

Tensor(shape=[6, 6], dtype=float32, place=CUDAPlace(0), stop_gradient=True,       [[0., 1., 0., 0., 1., 0.],        [1., 0., 1., 0., 1., 0.],        [0., 1., 0., 1., 0., 0.],        [0., 0., 1., 0., 1., 1.],        [1., 1., 0., 1., 0., 0.],        [0., 0., 0., 1., 0., 0.]])Tensor(shape=[6, 6], dtype=float32, place=CUDAPlace(0), stop_gradient=True,       [[2., 0., 0., 0., 0., 0.],        [0., 3., 0., 0., 0., 0.],        [0., 0., 2., 0., 0., 0.],        [0., 0., 0., 3., 0., 0.],        [0., 0., 0., 0., 3., 0.],        [0., 0., 0., 0., 0., 1.]])Tensor(shape=[6, 6], dtype=float32, place=CUDAPlace(0), stop_gradient=True,       [[0.50000000, 0.        , 0.        , 0.        , 0.        , 0.        ],        [0.        , 0.33333334, 0.        , 0.        , 0.        , 0.        ],        [0.        , 0.        , 0.50000000, 0.        , 0.        , 0.        ],        [0.        , 0.        , 0.        , 0.33333334, 0.        , 0.        ],        [0.        , 0.        , 0.        , 0.        , 0.33333334, 0.        ],        [0.        , 0.        , 0.        , 0.        , 0.        , 1.        ]])Tensor(shape=[6, 6], dtype=float32, place=CUDAPlace(0), stop_gradient=True,       [[0.        , 0.50000000, 0.        , 0.        , 0.50000000, 0.        ],        [0.33333334, 0.        , 0.33333334, 0.        , 0.33333334, 0.        ],        [0.        , 0.50000000, 0.        , 0.50000000, 0.        , 0.        ],        [0.        , 0.        , 0.33333334, 0.        , 0.33333334, 0.33333334],        [0.33333334, 0.33333334, 0.        , 0.33333334, 0.        , 0.        ],        [0.        , 0.        , 0.        , 1.        , 0.        , 0.        ]])

       

但是在实际运用中采用的是对称的normalization:

用矩阵表示则为:

A=D−12AD−12A=D−21AD−21

对于Aij=AijdidjAij=didjAij

这其实是跟Laplacian Matrix 有关,拉普拉斯算子是这样的:

L=IN−D−12AD−12L=IN−D−21AD−21

In [9]

import paddleimport numpy as npA = paddle.to_tensor([    [0,1,0,0,1,0],    [1,0,1,0,1,0],    [0,1,0,1,0,0],    [0,0,1,0,1,1],    [1,1,0,1,0,0],    [0,0,0,1,0,0]],dtype='float32')print(A)D = paddle.to_tensor([    [2,0,0,0,0,0],    [0,3,0,0,0,0],    [0,0,2,0,0,0],    [0,0,0,3,0,0],    [0,0,0,0,3,0],    [0,0,0,0,0,1]], dtype='float32')print(D)# 取逆D[D==0] = D.max() + 1e100DD = paddle.reciprocal(D)print(DD)# 开方_DD = paddle.sqrt(DD)# 求积hat_A = paddle.matmul(paddle.matmul(_DD,A),_DD)print(hat_A)

       

Tensor(shape=[6, 6], dtype=float32, place=CUDAPlace(0), stop_gradient=True,       [[0., 1., 0., 0., 1., 0.],        [1., 0., 1., 0., 1., 0.],        [0., 1., 0., 1., 0., 0.],        [0., 0., 1., 0., 1., 1.],        [1., 1., 0., 1., 0., 0.],        [0., 0., 0., 1., 0., 0.]])Tensor(shape=[6, 6], dtype=float32, place=CUDAPlace(0), stop_gradient=True,       [[2., 0., 0., 0., 0., 0.],        [0., 3., 0., 0., 0., 0.],        [0., 0., 2., 0., 0., 0.],        [0., 0., 0., 3., 0., 0.],        [0., 0., 0., 0., 3., 0.],        [0., 0., 0., 0., 0., 1.]])Tensor(shape=[6, 6], dtype=float32, place=CUDAPlace(0), stop_gradient=True,       [[0.50000000, 0.        , 0.        , 0.        , 0.        , 0.        ],        [0.        , 0.33333334, 0.        , 0.        , 0.        , 0.        ],        [0.        , 0.        , 0.50000000, 0.        , 0.        , 0.        ],        [0.        , 0.        , 0.        , 0.33333334, 0.        , 0.        ],        [0.        , 0.        , 0.        , 0.        , 0.33333334, 0.        ],        [0.        , 0.        , 0.        , 0.        , 0.        , 1.        ]])Tensor(shape=[6, 6], dtype=float32, place=CUDAPlace(0), stop_gradient=True,       [[0.        , 0.40824828, 0.        , 0.        , 0.40824828, 0.        ],        [0.40824828, 0.        , 0.40824828, 0.        , 0.33333331, 0.        ],        [0.        , 0.40824828, 0.        , 0.40824828, 0.        , 0.        ],        [0.        , 0.        , 0.40824828, 0.        , 0.33333331, 0.57735026],        [0.40824828, 0.33333331, 0.        , 0.33333331, 0.        , 0.        ],        [0.        , 0.        , 0.        , 0.57735026, 0.        , 0.        ]])

       

A0,1=A0,1d0d1=123=0.4082A0,1=d0d1A0,1=231=0.4082

把这两个tricks结合起来,我们就可以原文的公式:

一文读懂图卷积神经网络(GCN) - 创想鸟        

其中 A^=A+IA=A+I , D^D 是 A^A 的degree matrix。 而 D^−12A^D^−12D−21AD−21 是对 AA 做了一个对称的归一化。

在Cora数据集上训练的两层GCN的隐藏层激活的可视化效果如下:

一文读懂图卷积神经网络(GCN) - 创想鸟        

2. 数学证明:

附上参考的视频:

https://www.bilibili.com/video/BV1Vw411R7Fj

一文读懂图卷积神经网络(GCN) - 创想鸟        

一文读懂图卷积神经网络(GCN) - 创想鸟        

一文读懂图卷积神经网络(GCN) - 创想鸟        

一文读懂图卷积神经网络(GCN) - 创想鸟        

以上就是一文读懂图卷积神经网络(GCN)的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/59377.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年11月10日 13:50:41
下一篇 2025年11月10日 14:13:03

相关推荐

  • XRP、Bittensor 和 BlockDAG:探索不断发展的加密货币格局

    探索xrp、bittensor与blockdag在加密领域中的变革:从传统金融到去中心化ai与社区驱动平台 XRP、Bittensor与BlockDAG:驾驭不断演化的加密生态 加密世界始终充满活力,而当前,XRP、Bittensor以及BlockDAG所依托的技术正成为行业焦点。从重塑传统金融体系…

    好文分享 2025年12月8日
    000
  • DePIN 信用卡革命:Aethir Finance 与 Credible Finance 领跑变革

    aethir 和 credible finance 正在通过首个 depin 支持的信用卡改变游戏规则,为 ath 代币持有者和 defi 领域开启全新可能。 DePIN 信用卡革新:Aethir Finance 与 Credible Finance 联手引领行业变革 去中心化物理基础设施网络(De…

    2025年12月8日
    000
  • “仙币”瞄准2025年第三季度1美元目标:卡尔达诺、区块链FX与加密黄金争夺战

    低价山寨币能否在 2025 年第三季度触及 1 美元?我们来看看 cardano 和 blockchainfx 等项目的潜力。 1 美元的目标正在成为焦点,一些低价山寨币逐渐活跃,2025 年第三季度被许多投资者视为关键时间节点。哪些山寨币最有可能实现这一价格目标?我们来看看当前的热门候选。 Car…

    2025年12月8日
    000
  • SEI代币:它能让你成为百万富翁吗?一位纽约客的观点

    探索 sei 代币在 2026 年前成为“百万富翁制造机”的潜力:市场趋势、chainlink 集成与专家预测分析。sei 是下一个大热门吗? 各位加密货币爱好者,现在让我们来深入探讨一下。围绕 SEI 代币的讨论热度持续上升,有声音称其在 2026 年前可能为投资者带来巨额回报,甚至成为“百万富翁…

    2025年12月8日
    000
  • CoinRoutes、Uniswap API 与机构级 DeFi:一个新时代

    coinroutes 接入 uniswap api,为机构投资者打通通往 defi 的便捷路径,或将彻底改变链上交易生态。 CoinRoutes、Uniswap API 与机构级 DeFi:全新开端 CoinRoutes 与 Uniswap API 的整合是一次具有里程碑意义的进展。它为对冲基金等机…

    2025年12月8日
    000
  • PayPal、Venmo 与加密货币:纽约一分钟看数字资产

    paypal 和 venmo 正在进一步深化其在加密货币领域的布局,为用户提供更多购买、出售和持有数字货币的渠道。以下是它们近期的重要进展以及可能对你产生的影响。 PayPal、Venmo 和加密货币之间到底有何关联?这些数字支付巨头正加速进军加密市场,是时候以纽约的节奏来了解这些新动向了。从新增加…

    2025年12月8日
    000
  • SEI代币:通往2026年百万富翁之路?

    sei 会成为你实现百万富翁目标的关键吗?全面解析价格预测、市场动向与 sei 代币投资策略 到 2026 年,SEI 是否能帮助你实现成为百万富翁的愿望?凭借其前沿技术与日益扩展的生态体系,SEI 已经吸引了大量投资者的关注。我们一起来分析 SEI 的未来潜力,以及达成财富目标所需的关键因素。 S…

    2025年12月8日
    000
  • BlockDAG、山寨币和预售:有什么炒作?

    探索 blockdag 的热潮、其引人注目的 3.42 亿美元预售,以及它在当前加密货币市场中与 chainlink、xrp 和 cardano 等其他代币的对比表现。 BlockDAG、替代币与预售:热潮从何而来? 加密货币市场正处于活跃状态,而 BlockDAG 凭借其出色的预售成绩走在了前列,…

    2025年12月8日
    000
  • Pi网络生态挑战:App Studio激发创新

    pi network 的生态系统挑战突出了 app studio,这是一个无代码平台,使用户能够创建去中心化应用程序,从而推动 pi 生态系统内的参与度和质押行为。 Pi Network 生态系统挑战:App Studio 激发创新 Pi Network 最近的动态,尤其是生态系统挑战与 App S…

    2025年12月8日
    000
  • 以太坊突破引发山寨币FOMO:被低估的AI将是下一个?

    以太坊价格飙升点燃山寨币fomo情绪,被低估的人工智能项目如ozak ai正逐步受到市场关注。此轮上涨是否预示着ai驱动型加密货币将迎来新的发展契机? 以太坊上涨带动山寨币热潮:被忽视的AI项目或将迎来转机? 以太坊的强势反弹激发了整个山寨币市场的活跃度,引发FOMO(错失恐惧)效应,并重新点燃了投…

    2025年12月8日
    000
  • 代币经济学、预售、用户优先:加密货币的新时代?

    探索加密领域向以用户为中心的代币经济和透明预售的转变,重点关注 dalpy 和 blockchainfx 等项目。 代币经济、预售、以用户为中心:加密货币的新时代? 加密货币世界正在持续进化。那些通过创新的代币经济模式和透明预售机制优先考虑用户利益的项目,正逐渐崭露头角。让我们一起来看看这些新趋势。…

    2025年12月8日
    000
  • 柴犬、佩佩与代币反弹:模因币的下一步是什么?

    lilpepe等新型模因币是否正在重演历史?我们探讨新一轮代币热潮的可能性以及模因币格局的演变。 柴犬币、佩佩币与代币热潮:模因币的下一步是什么? 加密世界再次躁动起来了!还记得柴犬币(SHIB)的暴涨吗?如今,人们都在关注佩佩币(PEPE)等其他模因币是否也能复制这种奇迹。新一轮代币热潮是否正在酝…

    2025年12月8日
    000
  • FloppyPepe (FPPE):具有985倍收益潜力的模因币?

    加密货币市场再度升温,比特币屡创新高,而 floppypepe(fppe)正低调构建一个融合模因文化与实用工具的生态体系,配备创作者平台与爆发式增长潜能。 FloppyPepe(FPPE):潜在回报达985倍的模因币新星? 加密世界强势回归,比特币突破新高,山寨币也迎来全面反弹。当大众目光仍停留在传…

    2025年12月8日
    000
  • 狗狗币的抛物线式反弹:企业国库会引发模因币狂潮吗?

    一家纳斯达克上市公司大胆采用狗狗币作为储备资产,可能引发价格的抛物线式飙升。这是否预示着狗狗币(doge)新时代的来临? 狗狗币的抛物线式上涨:企业储备资产能否引发模因币热潮? 狗狗币(DOGE)再次成为媒体焦点,而这次并不仅仅因为它最初源自网络迷因。一家纳斯达克上市公司正在积极采用DOGE作为其储…

    2025年12月8日
    000
  • 伯爵·巴奇·哈里:一个在时光与科技中回响的名字

    探索earl “butch” harry的遗产与以太坊域名服务(ens)推动的数字身份演变 Earl “Butch” Harry:这个名字承载了他在密苏里州乡村生活的点点滴滴,那段岁月里有家人陪伴、户外活动和朴实的快乐。然而,正如其他事物一样,名字本身…

    2025年12月8日
    000
  • LEASH unleashed:山寨币的技术突破及其意义

    leash 是柴犬(shiba inu)生态系统中的一个代币,近期正在经历一次技术上的重大进展。这一轮价格上涨受到山寨币市场整体回暖以及投资者信心增强的双重推动。那么,这次上涨背后的具体动力是什么?又有哪些潜在风险值得关注? LEASH 起飞:山寨币市场的技术跃升与深层含义 作为柴犬生态的一部分,L…

    2025年12月8日
    000
  • 狗狗币价格预测:Bit Origin的大胆举动预示潜在反弹

    狗狗币或迎来价格上扬,bit origin的财务动向与技术走势均释放出积极信号。1美元的doge是否即将成为现实? 作为模因币的开山之作,狗狗币(Dogecoin)正重新焕发生机!Bit Origin的战略布局与技术层面的积极变化暗示,其价格或将迎来一波上涨。狗狗币是否正在酝酿“飞天”行情?我们一起…

    2025年12月8日
    000
  • HuskyBux:通过代币创建,模因币与动物福利的结合

    huskybux:融合模因文化与加密技术,助力动物收容所。探索这个solana链上代币如何将社区力量与爱心结合,推动公益事业。 在加密世界中,投机行为屡见不鲜,但一种新的代币正在打破常规,它不为炫富,而是为流浪动物发声。这个项目就是HuskyBux (HSKBX),一个以模因为载体、以动物保护为目标…

    2025年12月8日
    000
  • 加密货币薪资、银行解决方案与看涨转变:究竟有何关联?

    加密薪酬与银行解决方案迎来牛市趋势:究竟有何玄机? 随着牛市趋势的出现,加密薪酬与银行解决方案正逐渐受到关注。了解稳定币、DAO 以及战略风险管理如何塑造金融的未来。 加密薪酬、银行解决方案与牛市转向:究竟有何玄机? 加密领域正孕育着巨大的潜力,而目前的热门话题集中在“加密薪酬、银行解决方案、牛市转…

    2025年12月8日
    000
  • 柴犬币、瑞波币、投资:2025年加密货币领域的探索

    如何看待柴犬币(shiba inu)与瑞波币(xrp)在2025年的投资前景?柴犬币只是炒作,还是xrp更具实际价值? 柴犬币、XRP、投资:2025年如何在加密货币市场中导航 加密货币市场依然充满活力,柴犬币(Shiba Inu)和XRP频频出现在人们的视野中。那么在2025年,哪一种更具投资潜力…

    2025年12月8日
    000

发表回复

登录后才能评论
关注微信