看啥推荐读物
一个有情怀的公众号。机器学习、自然语言处理、算法等知识集中营、期待与你相遇~
目录
相关文章推荐
今天看啥  ›  专栏  ›  机器学习算法与自然语言处理

WGAN的成功,可能跟Wasserstein距离没啥关系

机器学习算法与自然语言处理  · 公众号  ·  · 2021-04-01 08:00
公众号关注 “ML_NLP”设为 “星标”,重磅干货,第一时间送达!转载自 | PaperWeekly©PaperWeekly 原创 · 作者|苏剑林单位|追一科技研究方向|NLP、神经网络WGAN,即 Wasserstein GAN,算是 GAN 史上一个比较重要的理论突破结果,它将 GAN 中两个概率分布的度量从 f 散度改为了 Wasserstein 距离,从而使得 WGAN 的训练过程更加稳定,而且生成质量通常也更好。Wasserstein 距离跟最优传输相关,属于 Integral Probability Metric(IPM)的一种,这类概率度量通常有着更优良的理论性质,因此 WGAN 的出现也吸引了很多人从最优传输和 IPMs 的角度来理解和研究 GAN 模型。然而,最近 Arxiv 上的论文《Wasserstein GANs Work Because They Fail (to Approximate the Wasserstein Distance)》[1] 则指出,尽管 WGAN 是从 Wasserstein GA ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照