2019-08-23 07:59
本条微博链接
【文本分类】How to Fine-Tune BERT for Text Classification?本文来自复旦大学。针对 BERT 在文本分类中的应用,作者尝试了不同的微调方式来评测 BERT 的效果,主要分三大类:Fine-Tuning Strategies、Further Pretraining 和 Multi-task Fine-Tuning。这是一篇实验性的文章,把 BERT 尽可能的微调方式都列举了,总的来讲效果比较好的方式是:1)长文本仍需要进行实验才能确定是用 head、tail 还是 head+tail,这个跟具体的任务特点相关;2)从准
………………………………