看啥推荐读物
主要介绍深度学习、强化学习、深度强化学习环境、算法原理与实现、前沿技术与论文、开源项目、场景应用等与DRL相关的知识
今天看啥  ›  专栏  ›  深度强化学习实验室

【总结】强化学习需要批归一化(Batch Norm)吗?

深度强化学习实验室  · 公众号  ·  · 2020-10-09 07:35
深度强化学习实验室来源: 知乎专栏(https://www.zhihu.com/people/ceng-yi-yan-8)授权转载作者:曾伊言,   编辑:DeepRL深度强化学习算法 (DRL, Deep Reinforcement Learning Algorithm) 的神经网络是否需要使用批归一化 (BN, Batch Normalization) ?深度强化学习不需要批归一化,但是可以用归一化(长话短说)1. BN在RL中是如何失效的?在深度学习中BN很有用。特别是在监督学习中,我们从训练集中抽取数据进行训练,通过随机抽取保证每个批次的数据符合独立同分布 (i.i.d.)。在这种稳定的训练环境下,BN可以计算出一个变化稳定的 mean 和 std 用于归一化。BN很有用,详见 Paper3 Batch normalization: Accelerating deep network training by reducing internal covariate shift. 2015. 这里还解释了BN如何起作用。BN如何用,详见 从双 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照