看啥推荐读物
专栏名称: 新智元
智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人革命对人类社会与文明进化的影响,领航中国新智能时代。
今天看啥  ›  专栏  ›  新智元

Jeff Dean大规模多任务学习SOTA遭吐槽,复现一遍要6万美元!

新智元  · 公众号  · AI  · 2022-05-28 12:19
  新智元报道  编辑:David 好困 袁榭【新智元导读】谷歌大神Jeff Dean最近亲自操刀发新作,提出了一个大规模多任务学习框架µ2Net,基本把各大数据集多任务学习的SOTA刷了个遍,但这次为何网友有点不买账了?很简单,差钱。2021年10月,Jeff Dean亲自撰文介绍了一个全新的机器学习架构——Pathways。 目的很简单,就是让一个AI能够跨越数以万计的的任务,理解不同类型的数据,并同时以极高的效率实现:  在大半年之后的2022年3月,Jeff Dean终于发布了Pathways的论文。 论文连接:https://arxiv.org/abs/2203.12533 其中,补充了不少技术上的细节,比如最基本的系统架构等等。  2022年4月,谷歌用Pathways的PaLM语言模型横空出世,接连打破多项自然语言处理任务的SOTA,这个拥有5400亿参数的Transformer语言模型再次证明了「大力出奇迹」。 除了用到强大 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照