今天看啥  ›  专栏  ›  机器学习算法与自然语言处理

AI基础:图解Transformer

机器学习算法与自然语言处理  · 公众号  ·  · 2019-12-07 11:01
点击上方“MLNLP”,选择“星标”公众号重磅干货,第一时间送达来源:机器学习初学者0.导语 谷歌推出的BERT模型在11项NLP任务中夺得SOTA结果,引爆了整个NLP界。而BERT取得成功的一个关键因素是Transformer的强大作用。谷歌的Transformer模型最早是用于机器翻译任务,当时达到了SOTA效果。Transformer改进了RNN最被人诟病的训练慢的缺点,利用self-attention机制实现快速并行。并且Transformer可以增加到非常深的深度,充分发掘DNN模型的特性,提升模型准确率。在本文中,我们将研究Transformer模型,理解它的工作原理。后续持续更新作者:龙心尘 出处:https://blog.csdn.net/longxinchen_ml/article/details/86533005审校:百度NLP、龙心尘翻译:张驰、毅航、Conrad原作者:Jay Alammar原链接:https://jalammar ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照