今天看啥  ›  专栏  ›  AI算法之心

关于BERT,面试官们都怎么问

AI算法之心  · 公众号  ·  · 2020-03-30 22:32
作者 | Adherer 整理 | NewBeeNLP面试锦囊之知识整理系列,持续更新中干货满满,建议收藏,或者老规矩后台见(暗号:BT)1.BERT 的基本原理是什么?BERT 来自 Google 的论文Pre-training of Deep Bidirectional Transformers for Language Understanding[1],BERT 是“Bidirectional Encoder Representations from Transformers”的首字母缩写,整体是一个自编码语言模型(Autoencoder LM),并且其设计了两个任务来预训练该模型。第一个任务是采用 MaskLM 的方式来训练语言模型,通俗地说就是在输入一句话的时候,随机地选一些要预测的词,然后用一个特殊的符号[MASK]来代替它们,之后让模型根据所给的标签去学习这些地方该填的词。第二个任务在双向语言模型的基础上额外增加了一个句子级别的连续性预测任务, ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照