注册
登录
看啥推荐读物
专栏名称:
AINLP
关注AI、NLP相关技术,关注算法研发职位和课程;回复"文章"获取历史信息;双语聊天机器人"无名";中英翻译请输入:翻译 翻译内容;自动对联,请输入:上联 上联内容;调戏夸夸聊天机器人,请求夸、求赞;查询相似词,请输入: 相似词 词条
我也要提交微信公众号
今天看啥
微信公众号rss订阅, 微信rss, 稳定的RSS源
微信公众号RSS订阅方法
B站投稿RSS订阅方法
知乎回答RSS订阅方法
知乎专栏 RSS订阅方法
雪球动态RSS订阅方法
微博RSS订阅方法
微博搜索关键词订阅方法
豆瓣日记 RSS订阅方法
目录
相关文章推荐
今天看啥
›
专栏
›
AINLP
【LLM 论文阅读】NEFTUNE: LLM微调的免费午餐
AINLP
·
公众号
· · 2024-01-11 18:10
1指令微调的局限性指令微调对于训练llm的能力至关重要,而模型的有用性在很大程度上取决于我们从小指令数据集中获得最大信息的能力。在本文中,我们提出在微调正向传递的过程中,在训练数据的嵌入向量中添加随机噪声,论文实验显示这个简单的技巧可以提高指令微调的效果,通常有很大的优势,而不需要额外的计算或数据开销。NEFTune虽然简单,但对下游的会话质量有很大的影响。当像LLaMA-2-7B这样的原始LLM被噪声嵌入所微调时,AlpacaEval从29.8%提高到64.7%(图1),令人印象深刻地提高了约35个百分点。NEFTune可以实现在会话任务上惊人的性能跳跃,同时在事实问题回答基线上保持性能,这种技术似乎是LLM微调的免费午餐。代码仓库:https://github.com/neelsjain/NEFTune论文链接:https://arxiv.org/abs/2310.059142NEFTune原理指令模型是在由指令和响应对组成的数 ………………………………
原文地址:
访问原文地址
快照地址:
访问文章快照
分享到微博
推荐文章
TravelQueen旅行皇后
·
上海乐高乐园全新动态来啦
2 月前
躺倒鸭
·
BB鸭 | 苹果修复电量消耗过快问题;华为自研编程语言“仓颉”内测;索尼成立移动公司;E3发布会线上线下同时取消
2 年前
NAI500
·
这两只派息的低价黄金股2022年会有起色吗?
2 年前
广告门APP
·
为什么没人愿意看深度内容了 ?
2 年前
并购汪
·
86亿商誉!都是商誉惹的祸:纳思达“杠杆收购”之谜 | 小汪天天见
6 年前