看啥推荐读物
专栏名称: AINLP
关注AI、NLP相关技术,关注算法研发职位和课程;回复"文章"获取历史信息;双语聊天机器人"无名";中英翻译请输入:翻译 翻译内容;自动对联,请输入:上联 上联内容;调戏夸夸聊天机器人,请求夸、求赞;查询相似词,请输入: 相似词 词条
今天看啥  ›  专栏  ›  AINLP

几种高速下载大模型的方法

AINLP  · 公众号  ·  · 2024-04-15 12:31
我发现我身边很多的算法同事,还不能自如的下载大模型权重文件,诸如 huggingface 太慢,链接不上等问题。确实,大模型现在小的几个 G,大的几十 G,甚至上百 G,想要下载模型真的比以往要难很多了。能够高速下载模型是大家训练微调模型的前提条件。这里分享下我常用的下载方式。现在大模型下载最常用的两个平台是huggingface和modelscope。如何高速下载 huggingface 模型huggingface 是国外的一个社区平台,地址是 https://huggingface.co/当然了,现在国内访问很慢,想要下载模型很难。这里推荐一个 huggingface 的镜像网站 https://hf-mirror.com/,国内可以高速下载,支持模型,数据集等等。下载方式和 huggingface 一样。有几种方式。这里以在下 Qwen1.5-0.5B-chat 为例子,来一步步交大家如何配置,如何下载。1、网页直接下载https://hf-mirror.com/Qwen/Qwen1.5-0.5B-Chat/tree/main单 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照