今天看啥  ›  专栏  ›  赛尔实验室

赛尔原创 | EMNLP 2019 基于BERT的跨语言上下文相关词向量在零样本依存分析中的应用

赛尔实验室  · 公众号  · 程序员  · 2019-11-18 10:35
论文名称:Cross-Lingual BERT Transformation for Zero-Shot Dependency Parsing论文作者:王宇轩,车万翔,郭江,刘一佳,刘挺原创作者:王宇轩下载链接:https://www.aclweb.org/anthology/D19-1575/转载须注明出处:哈工大SCIR1.简介跨语言词向量对于跨语言迁移学习具有重要意义。本文提出一种简单快捷的离线跨语言BERT投射方法,该方法能够利用预训练好的BERT模型生成跨语言上下文相关词向量。我们在零样本跨语言依存分析任务中实验了这种词向量,取得了远超使用传统跨语言上下文无关词向量方法的目前最好结果。我们还将这种词向量与XLM(一种使用跨语言数据重新训练BERT的方法)进行了对比,实验表明在与该方法取得相近结果的情况下,我们的方法所需的训练数据和计算资源远少于XLM,同 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照