点击上方“MLNLP”,选择“星标”公众号重磅干货,第一时间送达转载自公众号:专知作者:李贺元【导读】知识蒸馏(Knowledge Distilling)是由大神Geoffrey Hinton、Oriol Vinyals、Jeff Dean在NIPS2015上提出的。作为模型压缩的一种方法,知识蒸馏能够利用已经训练的一个较复杂的模型,来指导一个较轻量的模型训练,从而在减小模型大小和计算资源的同时,尽量保持原始大模型的准确率的方法。随着越来越多的AI算法落地工业界,知识蒸馏在大量工业场景上发光发热。Github上的dkozlov同学,整理了Knowledge Distilling的paper、教程、代码,看完这些资料,你一定有所收获。Github地址: https://github.com/dkozlov/awesome-knowledge-distillation作者:dkozlov【文章列表】Combining labeled and unlabeled data with co-
………………………………