文章预览
作者丨科技猛兽 编辑丨极市平台 导读 在 ImageNet 图像分类中有效地超过了视觉 Mamba 模型 本文目录 1 MambaOut:在视觉任务中,我们真的需要 Mamba 吗? (来自 NUS,MetaFormer 原作者) 1 MambaOut 论文解读 1.1 在视觉任务中,我们真的需要 Mamba 吗? 1.2 本文有哪些新的发现? 1.3 概念讨论 1.4 视觉任务有长序列吗? 1.5 视觉任务需要 Causal 的 token mixing 模式吗? 1.6 关于 Mamba 在视觉的必要性的假设 1.7 Gated CNN 和 MambaOut 1.8 ImageNet 实验结果 1.9 COCO 目标检测和实例分割实验结果 1.10 ADE20K 语义分割实验结果 太长不看版 Mamba,一种使用类似 RNN 的状态空间模型 (State Space Model, SSM) 作为 token mixer 的架构,能够解决 Self-attention 的二次计算复杂度,并随后引入视觉任务中。但是,与基于卷积或者 Attention 的模型相比,Mamba 在视觉方面的性能往往不足。 在本文中,作者深入
………………………………