WWW 2025
1 intro
- 传统GNN忽视了图结构自身存在的缺陷:
- 图结构常常会出现错误边和缺失边等数据问题,从而限制模型的效果
- —>为了解决上述问题,产生了图结构学习算法(GSL)
- 目的在于优化结点连接和边权重来生成新的邻接矩阵
- 主流的方法是
- Φ是度量函数,如 cosine 相似度等
- 但是这种主流的方法存在两个问题
- 建立连接时只依赖嵌入相似度而忽略了结点的信息质量
- 从邻居结点接收模糊劣质的信息会干扰目标结点的嵌入学习
- 论文使用了一种代表性的 GSL 模型生成邻接矩阵,然后移除了一定比例的高信息熵邻居结点(噪声邻居)
- 发现该措施可以显著提升 GNN 的性能
- 从邻居结点接收模糊劣质的信息会干扰目标结点的嵌入学习
- 图结构的对称性限制了 GNN 捕捉复杂关系的能力
- 当前的 GSL 模型强制约束结点之间构建对称连接
- 这意味着在信息聚合时,两个结点之间的相互影响是相同的
- 但实际上结点之间的信息质量存在着差异,互相之间的关系一定程度上是非对称的
- 当前的 GSL 模型强制约束结点之间构建对称连接
- 建立连接时只依赖嵌入相似度而忽略了结点的信息质量
2 论文思路
- 提出 UnGSL(Uncertainty-aware Graph Structure Learning)
- 可以无缝整合至现有 GSL 模型的轻量级插件
- 利用可学习的结点阈值来自适应区分低熵邻居和高熵邻居,并根据它们的熵等级调整边权重
- 主要流程
- 预训练给定的 GSL 模型来获得分类器,并计算结点的熵,将其转化为 0 到 1 之间的置信度分数
- 为每个结点设置可学习的阈值,并重新训练 GSL 模型
- 在训练中,UnGSL 增强来自高置信度邻居的边权重,同时降低来自低置信度邻居的边权重
- 换言之,在原先的邻接矩阵权重的基础上乘一个系数
- uj邻居的信息熵,εi 结点的可学习阈值,Sij原先的邻接矩阵
- τ控制高置信度邻居边权重
- β控制低置信度邻居边权重