看啥推荐读物
专栏名称: 夕小瑶科技说
这里有自然语言处理、机器学习、算法的入门指导、科普与深度干货,有小夕的回忆与日常,还有最重要的:萌!气!
今天看啥  ›  专栏  ›  夕小瑶科技说

FLAT:中文NER屠榜之作!

夕小瑶科技说  · 公众号  ·  · 2020-09-07 22:20
文 | JayLou娄杰编 | YY近年来,引入词汇信息逐渐成为提升中文NER指标的重要手段。ACL2020中一篇来自复旦大学邱锡鹏老师团队的 FLAT: Chinese NER Using Flat-Lattice Transformer 刷新了中文NER任务的新SOTA。如上图所示,在MSRA-NER任务中,FLAT+BERT登顶榜首;而单独的FLAT(1层TransFormer)也超越了预训练模型ERNIE。相比于之前引入词汇信息的中文NER工作,FLAT主要创新点在于:基于Transformer设计了一种巧妙position encoding来融合Lattice结构,可以无损的引入词汇信息。基于Transformer融合了词汇信息的动态结构,支持并行化计算,可以大幅提升推断速度。下面让我们看看FLAT是如何登顶榜首的~论文链接:https://arxiv.org/pdf/2004.11795.pdf开源代码:https://github.com/LeeSureman/Flat-Lattice-TransformerArxiv访问慢的小 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照