文章预览
来源:人工智能前沿讲习 本文 共2600字 ,建议阅读 10 分钟 在不使用通用领域数据的情况下,在通用领域中遗忘更少,可能是做下游领域 MLLM 更关注的事情。 最近,全球 AI 和机器学习顶会 ICLR 2025 公布了论文录取结果:由 IDEA、清华大学、北京大学、香港科技大学(广州)联合团队提出的 ChartMoE 成功入选 Oral (口头报告) 论文。据了解,本届大会共收到 11672 篇论文,被选中做 Oral Presentation(口头报告)的比例约为 1.8% 论文链接: https://arxiv.org/abs/2409.03277 代码链接: https://github.com/IDEA-FinAI/ChartMoE 模型链接: https://huggingface.co/IDEA-FinAI/chartmoe 数据链接: https://huggingface.co/datasets/Coobiw/ChartMoE-Data 研究动机与主要贡献: 不同于现阶段使用 MoE 架构的原始动机,ChartMoE 的目标不是扩展模型的容量,
………………………………