看啥推荐读物
一个从大三就接触NLP的小小NLPer,本公众号每天记录自己的一点一滴,每篇文章最后也有托福单词等新知识,学技术同时,也一点一滴积累额外的知识。期待与你在知识的殿堂与你相遇!
今天看啥  ›  专栏  ›  深度学习自然语言处理

2019: 属于BERT预训练语言模型之年

深度学习自然语言处理  · 公众号  ·  · 2020-01-02 22:40
点击上方,选择星标或置顶,每天给你送干货!阅读大概需要20分钟跟随小博主,每天进步一丢丢来自:专知公众号【导读】2019年对NLP来说是具有里程碑意义的一年,从阅读理解到情绪分析,各种重要的NLP任务都有了新的记录。核心的研究趋势是NLP中迁移学习,即:使用大量预训练模型,并根据特定的语言相关任务对它们进行微调。迁移学习允许人们重用以前构建的模型中的知识,这可以提高具体应用模型性能和泛化能力,同时需要更少的标注样本。要论2019年最重要的预训练模型,非BERT莫属。原文题目:2019: The Year of BERT 原文链接:https://towardsdatascience.com/2019-the-year-of-bert-354e8106f7ba?翻译:专知先预训练模型,然后再在特定任务上进行微调,这种想法本身并不新鲜—— ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照