看啥推荐读物
专栏名称: PaperWeekly
PaperWeekly是一个推荐、解读、讨论和报道人工智能前沿论文成果的学术平台,致力于让国内外优秀科研工作得到更为广泛的传播和认可。社区:http://paperweek.ly | 微博:@PaperWeekly
今天看啥  ›  专栏  ›  PaperWeekly

GPT超越扩散!视觉生成迎来Scaling Law时刻!北大&字节提出VAR新范式

PaperWeekly  · 公众号  · 科研  · 2024-04-19 13:11
©作者 | 机器之心编辑部来源 | 机器之心新一代视觉生成范式「VAR: Visual Auto Regressive」视觉自回归来了!使 GPT 风格的自回归模型在图像生成首次超越扩散模型,并观察到与大语言模型相似的 Scaling Laws 缩放定律、Zero-shot Task Generalization 泛化能力:▲ 论文标题: "Visual Autoregressive Modeling: Scalable Image Generation via Next-Scale Prediction"这项名为 VAR 的新工作由北京大学和字节跳动的研究者提出,登上了 GitHub 和 Paperwithcode 热度榜单,并得到大量同行关注:目前体验网站、论文、代码、模型已放出:体验网站:https://var.vision/论文链接:https://arxiv.org/abs/2404.02905开源代码:https://github.com/FoundationVision/VAR开源模型:https://huggingface.co/FoundationVision/var背景介绍在自然语言处理中,以 GPT、LLaMa 系列等大语言模型为例的 Autoregressive 自回归模型已经取得了较大的成功,尤其 S ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照