看啥推荐读物
专栏名称: 量子位
վ'ᴗ' ի 追踪AI行业和技术动态,这里更快一步!关注我们,回复“今天”,更多大新闻等你来发现
目录
今天看啥  ›  专栏  ›  量子位

「炫富」的GPT-3来了:31位作者,45TB数据,72页论文,1750亿个参数,会编故事,还会三位数加减法

量子位  · 公众号  · AI  · 2020-06-01 14:00
鱼羊 发自 凹非寺 量子位 报道 | 公众号 QbitAI那个语言模型又迭代了,现在有1750亿个参数。这个让英伟达狂喜,让调参师流泪的数字来自OpenAI,史上最大AI语言模型——GPT-3。单单论文就有72页。OpenAI表示,通过GPT-3,他们证明了无需梯度更新,无需微调,规模更大的语言模型就可以大大改善无关任务和小样本(few-shot)学习的性能,达到最先进微调方法的水准。在部分任务中,甚至超越了最先进微调方法。不仅如此,这个语言模型,还能做加减法。GPT-3是什么不妨先来看看GPT-3的实际表现。比如,先告诉GPT-3这样一个示例:“whatpu”是坦桑尼亚的一种小型、毛茸茸的动物。一个使用whatpu造句的例子是:我们在非洲旅行时,看到了非常可爱的whatpu。此后不再给GPT-3任何特定 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照