看啥推荐读物
专栏名称: PaperWeekly
PaperWeekly是一个推荐、解读、讨论和报道人工智能前沿论文成果的学术平台,致力于让国内外优秀科研工作得到更为广泛的传播和认可。社区:http://paperweek.ly | 微博:@PaperWeekly
今天看啥  ›  专栏  ›  PaperWeekly

ICLR 2020 | 可提速3000倍的全新信息匹配架构(附代码复现)

PaperWeekly  · 公众号  · 科研  · 2020-04-04 12:12
©PaperWeekly 原创 · 作者|周树帆学校|上海交通大学硕士生研究方向|自然语言处理今天聊一篇 FAIR 发表在 ICLR 2020 上的文章:Poly-encoders: Transformer Architectures and Pre-training Strategies for Fast and Accurate Multi-sentence Scoring。论文标题:Poly-encoders: Transformer Architectures and Pre-training Strategies for Fast and Accurate Multi-sentence Scoring论文来源:ICLR 2020论文链接:https://arxiv.org/abs/1905.01969和一些花里胡哨但是没有卵用的论文不同,这篇文章可谓大道至简。该文用一种非常简单但是有效的方式同时解决了 DSSM 式的 Bi-encoder 匹配质量低的问题和 ARC-II、BERT 等交互式的 Cross-encoder 匹配速度慢的问题。背景众所周知,常见的搜索、检索式问答、自然语言推断等任务,它们本质上都是一种相关性匹配任 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照