注册
登录
看啥推荐读物
专栏名称:
OpenMMLab
构建国际领先的人工智能开源算法平台
我也要提交微信公众号
今天看啥
微信公众号rss订阅, 微信rss, 稳定的RSS源
微信公众号RSS订阅方法
B站投稿RSS订阅方法
知乎回答RSS订阅方法
知乎专栏 RSS订阅方法
雪球动态RSS订阅方法
微博RSS订阅方法
微博搜索关键词订阅方法
豆瓣日记 RSS订阅方法
目录
相关文章推荐
清晨朗读会
·
清晨朗读2909:Books have ...
·
昨天
清晨朗读会
·
渊源直播:餐厅英语
·
昨天
可可英语
·
晨读744期|高铁票涨价近20%引发热议
·
3 天前
清晨朗读会
·
渊源直播:机场英语
·
5 天前
可可英语
·
五一假期消费支出强劲!
·
5 天前
今天看啥
›
专栏
›
OpenMMLab
换个框架,LLaVA-7B 竟能媲美 13B?
OpenMMLab
·
公众号
· · 2023-12-28 17:57
在当今的人工智能浪潮中,多模态大模型已经成为无法忽视的趋势,它通过结合不同类型的信息源(例如文本、图像、语音等)来增强模型的理解和表达能力。2023 年,我们在图文领域看到了众多优秀的工作,例如 LLaVA 和 MiniGPT 等等。而本文,我们将从另一个角度来看待这一领域:训练框架。本文将详细介绍由上海人工智能实验室设计开发的大模型微调框架 XTuner,其在同等训练数据的前提下,训得 LLaVA 模型精度显著优于现有其他框架,7B 模型媲美 13B。同时,借助 XTuner 中对 LLaVA 训练的多层优化,训练代价进一步降低,7B 模型仅需 8*48GB + 10 小时,即可完成所有训练流程!https://github.com/InternLM/xtuner(文末点击阅读原文可直达)XTuner 训练 LLaVA 有何优势?LLM QLoRA / ViT LoRA 配置LLaVA (XTuner) 架构示意图XTuner 团队对 LLaVA 的架构配置进行了充分的实验,发现了 ………………………………
原文地址:
访问原文地址
快照地址:
访问文章快照
分享到微博
推荐文章
清晨朗读会
·
清晨朗读2909:Books have always helped me bond with people
昨天
清晨朗读会
·
渊源直播:餐厅英语
昨天
可可英语
·
晨读744期|高铁票涨价近20%引发热议
3 天前
清晨朗读会
·
渊源直播:机场英语
5 天前
可可英语
·
五一假期消费支出强劲!
5 天前
京师就业
·
招聘 | 中国农业银行湖南省分行2024年度春季招聘
1 月前
狼族摄影
·
拍照走路太累!穿这双鞋你每天多走一万步!
2 年前
梦中人刘晓莉
·
自己做面包
3 年前
财宝宝
·
梦想总应该有的。 我家保姆的儿子是镇一中的中上水平。-20210307141940
3 年前
说百姓事
·
周总理晚年病重,十分挂念台湾的2个人,除了张学良,还有谁?
3 年前