今天看啥  ›  专栏  ›  机器学习研究组订阅

FAGAN:完全注意力机制(Full Attention)GAN,Self-attention+GAN

机器学习研究组订阅  · 公众号  · AI  · 2018-08-14 20:42
近期,人工智能专家Animesh Karnewar提出FAGAN——完全注意力机制(Full Attention)GAN,实验的代码和训练的模型可以在他的github库中找到:https://github.com/akanimax/fagan。这个fagan示例使用了我创建的名为“attnganpytorch”的包,该包在我的另一个存储库中可以找到:https://github.com/akanimax/attnganpytorch。作者 | Animesh Karnewar编译 | 专知整理 | MandyFAGAN: Full Attention GAN介绍在阅读了SAGAN (Self Attention GAN)的论文后,我想尝试一下,并对它进行更多的实验。由于作者的代码还不可用,所以我决定为它编写一个类似于我之前的“pro-gan-pth”包的一个package。我首先训练了SAGAN论文中描述的模型,然后意识到,我可以更多地使用基于图像的注意机制。此博客是该实验的快速报告。SAGAN 论文链接:https:// ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照