注册
登录
看啥推荐读物
专栏名称:
量子位
վ'ᴗ' ի 追踪AI行业和技术动态,这里更快一步!关注我们,回复“今天”,更多大新闻等你来发现
我也要提交微信公众号
今天看啥
微信公众号rss订阅, 微信rss, 稳定的RSS源
微信公众号RSS订阅方法
B站投稿RSS订阅方法
知乎回答RSS订阅方法
知乎专栏 RSS订阅方法
雪球动态RSS订阅方法
微博RSS订阅方法
微博搜索关键词订阅方法
豆瓣日记 RSS订阅方法
目录
相关文章推荐
宝玉xp
·
硅谷女孩采访 Perplexity 创始人 ...
·
3 天前
爱可可-爱生活
·
[CL]《On the Causal ...
·
4 天前
爱可可-爱生活
·
【The largest Awesome ...
·
5 天前
机器之心
·
Llama ...
·
5 天前
宝玉xp
·
英特尔在俄勒冈工厂新增 ASML ...
·
5 天前
今天看啥
›
专栏
›
量子位
「炫富」的GPT-3来了:31位作者,45TB数据,72页论文,1750亿个参数,会编故事,还会三位数加减法
量子位
·
公众号
·
AI
· 2020-06-01 14:00
鱼羊 发自 凹非寺 量子位 报道 | 公众号 QbitAI那个语言模型又迭代了,现在有1750亿个参数。这个让英伟达狂喜,让调参师流泪的数字来自OpenAI,史上最大AI语言模型——GPT-3。单单论文就有72页。OpenAI表示,通过GPT-3,他们证明了无需梯度更新,无需微调,规模更大的语言模型就可以大大改善无关任务和小样本(few-shot)学习的性能,达到最先进微调方法的水准。在部分任务中,甚至超越了最先进微调方法。不仅如此,这个语言模型,还能做加减法。GPT-3是什么不妨先来看看GPT-3的实际表现。比如,先告诉GPT-3这样一个示例:“whatpu”是坦桑尼亚的一种小型、毛茸茸的动物。一个使用whatpu造句的例子是:我们在非洲旅行时,看到了非常可爱的whatpu。此后不再给GPT-3任何特定 ………………………………
原文地址:
访问原文地址
快照地址:
访问文章快照
分享到微博
推荐文章
宝玉xp
·
硅谷女孩采访 Perplexity 创始人 Aravind 的视-20240422132256
3 天前
爱可可-爱生活
·
[CL]《On the Causal Nature of Sen-20240421060546
4 天前
爱可可-爱生活
·
【The largest Awesome List of CLI-20240420165749
5 天前
机器之心
·
Llama 3超大杯有何惊喜?Meta会一直开源吗?当初为何笃信元宇宙?扎克伯格新访谈回应一切
5 天前
宝玉xp
·
英特尔在俄勒冈工厂新增 ASML 首台高数值孔径极紫外光刻设备英-20240420114651
5 天前
中国苹果产业协会
·
2021品牌大会专家报告回顾 | European Apple Juice 2021
2 年前
上海松江
·
松江这家老菜场“变身”新集市!价格实惠、免费停车、送货到家……
2 年前
新浪科技
·
#济南警方通报阿里女员工被侵害#【#济南华联涉嫌员工正接受警方调-20210808170003
2 年前
出海记IPO
·
沃伦·巴菲特的伯克希尔哈撒韦2020年二季度投资组合报告
3 年前
投行圈
·
越努力越幸运,土豆骑士的成长史!
7 年前