Graph Attention Networks(GATs)

图注意网络(GATs)是对GCNs的理论改进。GATs提出了一种加权因子,该因子考虑了节点特征的“自我关注”过程,改进了GCNs静态的归一化系数。在本文中,我们将介绍GATs是如何工作的,并将其应用于实例,进一步了解其工作原理。 文章目录 前言 一、GATs原理 1、线性变换 2、激活函数 3

图注意网络(GATs)是对GCNs的理论改进。GATs提出了一种加权因子,该因子考虑了节点特征的“自我关注”过程,改进了GCNs静态的归一化系数。在本文中,我们将介绍GATs是如何工作的,并将其应用于实例,进一步了解其工作原理。

文章目录

  • 前言
  • 一、GATs原理
    • 1、线性变换
    • 2、激活函数
    • 3、Softmax 归一化
    • 4、多层注意力
    • 5、改进注意力层
  • 二、Cora分类数据集
    • 1、导入数据库
    • 2、GATs类
    • 3、训练GATv2模型
  • 总结
知秋君
上一篇 2024-07-29 09:02
下一篇 2024-07-29 08:36

相关推荐