看啥推荐读物
专栏名称: CVer
一个专注侃侃计算机视觉方向的公众号。计算机视觉、图像处理、机器学习、深度学习、C/C++、Python、诗和远方等。
今天看啥  ›  专栏  ›  CVer

CNN再助力!CoaT:Co-Scale卷积-注意力图像Transformer

CVer  · 公众号  ·  · 2021-04-18 12:35
点击下方卡片,关注“CVer”公众号AI/CV重磅干货,第一时间送达本文转载自:AI人工智能初学者‍Co-Scale Conv-Attentional Image Transformers论文:https://arxiv.org/abs/2104.06399代码:https://github.com/mlpc-ucsd/CoaT‍CoaT为Vision Transformer提供了丰富的多尺度和上下文建模能力,表现SOTA!性能优于T2T-ViT、DeiT、PVT等网络,在目标检测、实例分割等下游任务上也涨点明显,代码即将开源!作者单位:加州大学圣地亚哥分校(UCSD)1 简介1.1 快读论文在本文中介绍了Co-scale conv-attentional image Transformers(CoaT),这是一种基于Transformer的图像分类器,其主要包含Co-scale和conv-attentional机制设计。首先,Co-scale机制在各个尺度上都保持了Transformers编码器分支的完整性,同时允许在不同尺度下学习的表示形式能够 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照