专栏名称: 数据派THU
本订阅号是“THU数据派”的姊妹账号,致力于传播大数据价值、培养数据思维。
目录
今天看啥  ›  专栏  ›  数据派THU

ICLR 2025 Oral IDEA联合清华北大提出ChartMoE:探究下游任务中多样化对齐MoE的表征和知识

数据派THU  · 公众号  · 大数据  · 2025-04-22 17:00
    

文章预览

来源:人工智能前沿讲习 ‍ ‍ ‍ ‍ ‍ ‍ ‍ ‍ ‍ ‍ ‍ ‍‍‍‍‍‍‍‍‍‍‍‍ 本文 共2600字 ,建议阅读 10 分钟 在不使用通用领域数据的情况下,在通用领域中遗忘更少,可能是做下游领域 MLLM 更关注的事情。 最近,全球 AI 和机器学习顶会 ICLR 2025 公布了论文录取结果:由 IDEA、清华大学、北京大学、香港科技大学(广州)联合团队提出的 ChartMoE 成功入选 Oral (口头报告) 论文。据了解,本届大会共收到 11672 篇论文,被选中做 Oral Presentation(口头报告)的比例约为 1.8% 论文链接: https://arxiv.org/abs/2409.03277 代码链接: https://github.com/IDEA-FinAI/ChartMoE 模型链接: https://huggingface.co/IDEA-FinAI/chartmoe 数据链接: https://huggingface.co/datasets/Coobiw/ChartMoE-Data 研究动机与主要贡献: 不同于现阶段使用 MoE 架构的原始动机,ChartMoE 的目标不是扩展模型的容量, ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览