今天看啥  ›  专栏  ›  大模型智能

常用 Normalization 方法的总结与思考:BN、LN、IN、GN

大模型智能  · 公众号  ·  · 2020-03-07 16:19
来自 | 知乎   作者 | G-kdom链接 | https://zhuanlan.zhihu.com/p/72589565本文仅作交流,如有侵权,请联系删除。常用的Normalization方法主要有:Batch Normalization(BN,2015年)、Layer Normalization(LN,2016年)、Instance Normalization(IN,2017年)、Group Normalization(GN,2018年)。它们都是从激活函数的输入来考虑、做文章的,以不同的方式对激活函数的输入进行 Norm 的。我们将输入的 feature map shape 记为[N, C, H, W],其中N表示batch size,即N个样本;C表示通道数;H、W分别表示特征图的高度、宽度。这几个方法主要的区别就是在:1. BN是在batch上,对N、H、W做归一化,而保留通道 C 的维度。BN对较小的batch size效果不好。BN适用于固定深度的前向神经网络,如CNN,不适用于RNN;2. LN在通道方向上,对 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照