本地部署 DeepSeek R1
INFO
通过 Ollama 在本地安装运行 DeepSeek R1 模型。
Ollama
Ollama 是一个开源项目,专注于在本地运行、管理和配置大型语言模型。 在 Ollama Github 下载,得到 Ollama-darwin.zip ,解压后即可双击运行安装,安装完成后就可以使用命令行工具ollma
。
bash
> ollama -h
Large language model runner
Usage:
ollama [flags]
ollama [command]
Available Commands:
serve Start ollama
create Create a model from a Modelfile
show Show information for a model
run Run a model
stop Stop a running model
pull Pull a model from a registry
push Push a model to a registry
list List models
ps List running models
cp Copy a model
rm Remove a model
help Help about any command
DeepSeek R1
DeepSeek R1 模型 包含7个不同参数级别的模型,其中6个是蒸馏模型。
TIP
这里根据个人电脑配置,选择 14b
的模型,预计需要9G存储空间。
运行模型
bash
ollama run deepseek-r1:14b
首次运行会自动下载模型到本地。 DeepSeek运行后,可以通过命令行或Web UI进行交互。
开始对话
bash
>>> 你是谁?
结束对话
bash
>>> /bye
Web UI
open-webui 是一个Web版的AI交互界面,支持Ollama, OpenAI, DeepSeek的API。
bash
# 安装
pip install open-webui
# 如果 Python 版本高于3.11,使用这个方法安装
pipx install --fetch-missing-python --python 3.11 open-webui
# 启动服务
open-webui serve
启动服务后,就可以在Web中与模型进行交互了,默认访问地址为:http://localhost:8080