今天看啥  ›  专栏  ›  小小挖掘机

Batch Normalization的诅咒

小小挖掘机  · 公众号  · 大数据  · 2020-11-04 12:46
作者:Sahil Uppal编译:ronghuaiyang导读batch normalization时的一些缺陷。Batch Normalization确实是深度学习领域的重大突破之一,也是近年来研究人员讨论的热点之一。Batch Normalization是一种被广泛采用的技术,使训练更加快速和稳定,已成为最有影响力的方法之一。然而,尽管它具有多种功能,但仍有一些地方阻碍了该方法的发展,正如我们将在本文中讨论的那样,这表明做归一化的方法仍有改进的余地。我们为什么要用Batch Normalization?在讨论任何事情之前,首先,我们应该知道Batch Normalization是什么,它是如何工作的,并讨论它的用例。什么是Batch Normalization在训练过程中,当我们更新之前的权值时,每个中间激活层的输出分布会在每次迭代时发生变化。这种现象称为内部协变 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照