专栏名称: 机器之心
专业的人工智能媒体和产业服务平台
TodayRss-海外稳定RSS
目录
今天看啥  ›  专栏  ›  机器之心

NeurIPS 2025 Spotlight | 让检索、推理真正「合体」的小而强模型,AceSea...

机器之心  · 公众号  · AI  · 2025-10-24 12:32
    

主要观点总结

AceSearcher是一个合作式自博弈框架,旨在让同一语言模型在推理时兼具“问题分解者(Decomposer)”与“答案求解者(Solver)”的角色。它通过两阶段训练(SFT→RFT)为骨干,整合了推理与检索能力。AceSearcher模型框架发布自埃默里大学等研究团队,在推理密集任务上表现优异。论文地址和模型数据集地址已提供。

关键观点总结

关键观点1: AceSearcher模型特点

AceSearcher是一个统一框架,将推理与检索结合。它通过问题分解和答案求解两个阶段,提高了复杂检索任务的效果。模型在多跳问答、事实验证和文档级推理等任务上表现优异。

关键观点2: 模型训练阶段

AceSearcher分为监督微调(SFT)和偏好强化微调(RFT)两个阶段。SFT阶段让模型学会在证据上作答、拆分复杂问题并学习多步推理。RFT阶段则通过最终答案奖励来固化和迁移推理能力。

关键观点3: 模型性能表现

AceSearcher在多个公开数据集上的表现优于其他开源或闭源基线,特别是在参数效率方面。例如,在文档级推理任务上,32B版本的性能接近DeepSeek-V3(685B)。此外,该模型还具有高效的数据效率和推理效率。

关键观点4: 未来发展方向

未来可探索检索与推理的联合优化、极端时延场景的工程优化以及更广泛的任务类型扩展。AceSearcher证明了聪明的训练范式胜过盲目扩参,未来有望进一步发展。


免责声明:本文内容摘要由平台算法生成,仅为信息导航参考,不代表原文立场或观点。 原文内容版权归原作者所有,如您为原作者并希望删除该摘要或链接,请通过 【版权申诉通道】联系我们处理。

原文地址:访问原文地址
总结与预览地址:访问总结与预览
文章地址: 访问文章快照