看啥推荐读物
专栏名称: HuggingFace
The AI community building the future.
目录
相关文章推荐
今天看啥  ›  专栏  ›  HuggingFace

笔记本电脑上的聊天机器人: 在英特尔 Meteor Lake 上运行 Phi-2

HuggingFace  · 公众号  ·  · 2024-04-15 18:30
对应于其强大的能力,大语言模型 (LLM) 需要强大的算力支撑,而个人计算机上很难满足这一需求。因此,我们别无选择,只能将它们部署至由本地或云端托管的性能强大的定制 AI 服务器上。为何需要将 LLM 推理本地化如果我们可以在典配个人计算机上运行最先进的开源 LLM 会如何?好处简直太多了:增强隐私保护: 私有数据不需要发送至外部 API 进行推理。降低延迟: 节省网络往返的次数。支持离线工作: 用户可以在没有网络连接的情况下使用 LLM (常旅客的梦想!)。降低成本: 无需在 API 调用或模型托管上花一分钱。可定制: 每个用户都可以找到最适合他们日常工作任务的模型,甚至可以对其进行微调或使用本地检索增强生成 (RAG) 来提高适配度。这一切的一切都太诱人了!那么,为什么我们没有这样做呢?回到我们的开场白,一般典配笔记本电脑没有足 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照