看啥推荐读物
专栏名称: 前端早读课
我们关注前端,产品体验设计,更关注前端同行的成长。 每天清晨五点早读,四万+同行相伴成长。
今天看啥  ›  专栏  ›  前端早读课

【第3252期】Ollama:本地大模型运行指南

前端早读课  · 公众号  · 前端  · 2024-05-07 08:01
前言硬盘容量不够,看这个先过过瘾。模型就跟换包一样简便了。介绍了基于 Go 语言开发的 Ollama 框架,可以在本地运行大模型。通过 Ollama,用户可以下载、运行不同模型,并在终端或通过 API 进行对话生成。今日前端早读课文章由 @杨鹏分享,公号:奇舞精选授权。正文从这开始~~Ollama 简介Ollama 是一个基于 Go 语言开发的可以本地运行大模型的开源框架。官网:https://ollama.com/GitHub 地址:https://github.com/ollama/ollamaOllama 安装下载安装 Ollama在 Ollama 官网根据操作系统类型选择对应的安装包,这里选择 macOS 下载安装。安装完在终端输入 ollama,可以看到 ollama 支持的命令。 Usage: ollama [flags] ollama [command] Available Commands: serve Start ollama create Create a model from a Modelfile show Show information for a model run Run a model pull Pull a model from a re ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照