今天看啥  ›  专栏  ›  高能AI

Lex-BERT:超越FLAT的中文NER模型?

高能AI  · 公众号  ·  · 2021-01-13 22:32
文 | JayLou娄杰本文介绍一篇“大道至简”的中文NER方法——Lex-BERT,其仅仅通过将词汇信息以标识符的形式引入到原文输入中,就可以有效增强中文NER效果。由于Lex-BERT炒鸡简单,JayJay想安利给大家,赶紧在自己的中文NER任务上尝试一下吧~0前言谈起中文NER任务,NLPer都不陌生。而如今,提升中文NER指标的主要方式是引入词汇信息,JayJay在之前的综述《中文NER的正确打开方式: 词汇增强方法总结》(复制链接:https://zhuanlan.zhihu.com/p/142615620)一文中就详细介绍了中文NER的一些主流方法,而SOTA属于FLAT [1]。最近arxiv上的一篇paper《Lex-BERT: Enhancing BERT based NER with lexicons》将词汇信息作为标识符引入到input中,并超越了FLAT的结果。论文下载:https://arxiv.org/pdf/2101.00396.pdfLex-BERT相比于FL ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照