跳到主要内容

Ollama

Ollama 是一个用于在本地运行和管理大语言模型(LLM)的工具。 它可以让你在本地设备上轻松拉取、运行和管理各种 AI 模型,比如 LLaMA、Mistral、Gemma 等,无需复杂的环境配置。

Ollama 安装

curl -fsSL https://ollama.com/install.sh | sh

本地构建方法请参考 官方文档

使用方法

拉取模型

此命令会通过互联网下载模型文件

ollama pull deepseek-r1:1.5b

运行模型

此命令会直接运行模型,如本地没有模型缓存会自动通过互联网下载模型文件并运行

ollama run deepseek-r1:1.5b

显示模型信息

ollama show deepseek-r1:1.5b

列出已下载的模型

ollama list

列出已加载的模型

ollama ps

停止正在运行的模型

ollama stop deepseek-r1:1.5b

删除模型

ollama rm deepseek-r1:1.5b

参考信息

更多关于 Ollama 的详细资料,请参考 官方文档