看啥推荐读物
专栏名称: HuggingFace
The AI community building the future.
今天看啥  ›  专栏  ›  HuggingFace

社区供稿 | Unsloth 微调 Llama3-8B,提速 44.35%,节省 42.58% 显存,最少仅需 7.75GB

HuggingFace  · 公众号  ·  · 2024-05-08 18:30
01前言本文主要介绍Unsloth,它可以显著提升大模型的训练速度,减少显存占用,我们将其整合到Firefly训练框架中,实现对Llama3、Llama2、Mistral、Gemma、Zephyr等模型训练的「降本增速」。我们实测了Unsloth所带来的训练增益,对Llama3-8B进行QLoRA训练,最少仅需7.75GB显存,这意味着我们可以在一张1080Ti上训练Llama3-8B,进一步降低了大模型训练的硬件门槛。开启Unsloth后,Llama3-8B的训练速度可提升44.35%,训练时间可减少30.72%,显存占用可减少42.58%。更详细的测试设置可参考第三节。Firefly项目链接:https://github.com/yangjianxin1/FireflyUnsloth项目链接:https://github.com/unslothai/unsloth02Unsloth简介Unsloth是一个开源的大模型训练加速项目,使用OpenAI的Triton对模型的计算过程进行重写,大幅提升模型的训练速度,降低训练中的显存占用。Unsloth能够保证重写后的模型计算的一致性 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照