看啥推荐读物
专栏名称: 极市平台
极市平台是由深圳极视角推出的专业的视觉算法开发与分发平台,为视觉开发者提供多领域实景训练数据库等开发工具和规模化销售渠道。本公众号将会分享视觉相关的技术资讯,行业动态,在线分享信息,线下活动等。 网站: http://cvmart.net/
今天看啥  ›  专栏  ›  极市平台

群魔乱舞:MoE大模型详解

极市平台  · 公众号  ·  · 2024-01-20 22:00
↑ 点击蓝字 关注极市平台作者丨绝密伏击@知乎(已授权)来源丨https://zhuanlan.zhihu.com/p/677638939编辑丨极市平台极市导读 究竟什么是MoE大模型?MoE大模型具备哪些优势?本文就带你一探究竟。 >>加入极市CV技术交流群,走在计算机视觉的最前沿GPT-4是8个2200亿MoE模型GPT-4远不止1万亿,甚至,还是8个2200亿参数组成的混合专家模型(MoE)。2023年6月,美国知名骇客George Hotz在接受采访时透露,GPT-4由8个220B模型组成。这么算来,8 x 220B = 1.76万亿。就连PyTorch的创建者Soumith Chintala对此也深信不疑。下面这张8头怪,看起来就像现在的GPT-4。MoE 应用于大模型,GPT-4并不是第一个。在2022年的时候,Google 就提出了MoE大模型Switch Transformer,模型大小是1571B,Switch Transformer在预训练任务上显示出比 T5-XXL(11B) 模型更高的样本效率。在相同的训练时间和计算资源下,Swit ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照