关注图网络、图表示学习,最近顶会顶刊动态以及机器学习基本方法,包括无监督学习、半监督学习、弱监督学习、元学习等
今天看啥  ›  专栏  ›  深度图学习与大模型LLM

ICML 2024 || 图外部注意力机制捕捉图之间的关系

深度图学习与大模型LLM  · 公众号  ·  · 2024-08-06 22:18
    

文章预览

大家好,今天给大家介绍一篇最ICML 2024关于Graph Transformer研究论文,这篇论文提出了一种新的图外部注意力机制(Graph External Attention, GEA)和基于GEA的图外部注意力增强Transformer(Graph External Attention Enhanced Transformer, GEAET)模型。 这项工作解决了现有图表示学习方法忽视图间相关性的问题,通过引入外部注意力单元来隐式学习图间相关性,从而获得更全面的图表示 。 1. 基本信息 论文题目:Graph External Attention Enhanced Transformer 作者:Jianqing Liang, Min Chen, Jiye Liang 作者研究单位:Key Laboratory of Computational Intelligence and Chinese Information Processing of Ministry of Education, School of Computer and Information Technology, Shanxi University , Taiyuan 030006, Shanxi, China 代码链接: https://github.com/icm1018/GEAET 2. 研究背景 图表示学习在近年来受到广泛关注,在社交网络分析、药物发现、蛋白质设计和医疗 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览