看啥推荐读物
专栏名称: 爱可可-爱生活
知名互联网资讯博主 北邮PRIS模式识别实验室陈老师
今天看啥  ›  专栏  ›  爱可可-爱生活

提出Transformer反馈注意力记忆(FAM)架构,通过反馈-20240417051415

爱可可-爱生活  · 微博  · AI  · 2024-04-17 05:14
2024-04-17 05:14 本条微博链接 提出Transformer反馈注意力记忆(FAM)架构,通过反馈循环实现对自身潜在表示的注意力处理,使Transformer获得工作记忆能力,可以高效处理无限长输入序列。 [LG]《TransformerFAM: Feedback attention is working memory》D Hwang, W Wang, Z Huo, K C Sim, P M Mengibar [Google] (2024) 网页链接 #机器学习##人工智能##论文# ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照