看啥推荐读物
一个有情怀的公众号。机器学习、自然语言处理、算法等知识集中营、期待与你相遇~
今天看啥  ›  专栏  ›  机器学习算法与自然语言处理

超细节!从源代码剖析Self-Attention知识点

机器学习算法与自然语言处理  · 公众号  ·  · 2020-12-24 08:58
公众号关注 “ML_NLP”设为 “星标”,重磅干货,第一时间送达!转载自 | PaperWeekly©PaperWeekly 原创 · 作者|海晨威学校|同济大学硕士生研究方向|自然语言处理在当前的 NLP 领域,Transformer / BERT 已然成为基础应用,而 Self-Attention  则是两者的核心部分,下面尝试用 Q&A 和源码的形式深入 Self-Attention 的细节。Q&A1. Self-Attention 的核心是什么?Self-Attention 的核心是用文本中的其它词来增强目标词的语义表示,从而更好的利用上下文的信息。2. Self-Attention 的时间复杂度是怎么计算的?Self-Attention 时间复杂度:,这里,n 是序列的长度,d 是 embedding 的维度,不考虑 batch 维。Self-Attention 包括三个步骤:相似度计算,softmax 和加权平均。它们分别的时间复杂度是:相似度计算 可 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照