本文为雷锋字幕组编译的技术博客 A Simple Guide to the Versions of the Inception Network,原标题,作者为 Bharath Raj。翻译 | 龙翔 整理 | 孔令双在这篇文章中,我将讨论最近两篇有趣的论文。它们提供了一种简单的方式,通过使用一种巧妙的集成方法提升神经网络的性能。Garipov 等人提出的 “Loss Surfaces, Mode Connectivity, and Fast Ensembling of DNNs” https://arxiv.org/abs/1802.10026Izmailov 等人提出的 “Averaging Weights Leads to Wider Optima and Better Generalization” https://arxiv.org/abs/1803.05407若希望更容易理解这篇博客,可以先阅读这一篇论文:Vitaly Bushaev 提出的 “Improving the way we work with learning rate” https://techburst.io/improving-the-way-we-work-with-learning-rate-5e99554f163b 传统的神经网络集成方法传统的集成
………………………………