专栏名称: PaperWeekly
PaperWeekly是一个推荐、解读、讨论和报道人工智能前沿论文成果的学术平台,致力于让国内外优秀科研工作得到更为广泛的传播和认可。社区:http://paperweek.ly | 微博:@PaperWeekly
目录
相关文章推荐
今天看啥  ›  专栏  ›  PaperWeekly

阿里千问提出Self-Lengthen,大模型实现自迭代扩展输出长度

PaperWeekly  · 公众号  · 科研  · 2024-11-02 13:36
    

文章预览

©PaperWeekly 原创 · 作者 |  权尚浩然 单位 |  阿里巴巴 研究方向 |  大模型长文本生成 介绍 大模型发展迅速,Qwen,LLaMA 等模型已经展示了超长输入(128k 以上 token)的处理能力,但是还难以产生较长的文本,比如难以生成一个 2000 字的小说或议论文。 我们分析这是由于训练过程中的缺陷:在 pre-training 阶段,尽管有各种长文本来源可供使用,却缺乏有效的指令来引导这种能力;相反,在post-training阶段,大多数由人工或 AI 增强的问答对都比较短,这导致训练好的大型语言模型在生成长篇的与人类偏好对齐的输出时面临挑战。 为了解决这个问题,已有的工作采用了两种策略:反向生成指令 (instruction backtranslation) 和行为模仿,以构建具有长篇回复的数据来微调模型。然而,获得涵盖各种长生成任务和领域的高质量数据具有挑战性;而行为模仿假设 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览