群晖上私有化部署DeepSeek-R1

简介

上一篇介绍的 deepseek-free-api ,主要是提供接口服务,允许用户通过网络访问 DeepSeek 模型的能力。这意味着,尽管用户可以在本地容器中运行该 API,但实际的模型推理和处理仍依赖于远程服务器或云服务,用户在使用时需要考虑网络连接的稳定性和访问权限。

文章传送门:深度思考大模型API服务deepseek-free-api

今天我们来研究通过 ollama 完全本地化部署 DeepSeek-R1

什么是 DeepSeek-R1 ?

DeepSeek-R1DeepSeek 的第一代推理模型,在数学、代码和推理任务中,其性能与 OpenAI-o1 相当,包括基于 LlamaQwen 的六个从 DeepSeek-R1 蒸馏出的密集模型。

什么是蒸馏 ?

蒸馏技术(Distillation)是一种模型压缩和优化的方法,主要用于将一个大型、复杂的模型的知识转移到一个较小的模型中。这个过程通常被称为“知识蒸馏”(Knowledge Distillation

其中 671b教师模型Teacher Model), 另外的 6 个蒸馏模型为学生模型Student Model

  • 1.5b:全称是 DeepSeek-R1-Distill-Qwen-1.5B,蒸馏模型源自 Qwen-2.5 系列;
  • 7b:是 DeepSeek-R1-Distill-Qwen-7B,蒸馏模型源自 Qwen-2.5 系列;
  • 8b:是 DeepSeek-R1-Distill-Llama-8B,蒸馏模型源自 Llama3.1-8B-Base
  • 14b:是 DeepSeek-R1-Distill-Qwen-14B,蒸馏模型源自 Qwen-2.5 系列;
  • 32b:是 DeepSeek-R1-Distill-Qwen-32B,蒸馏模型源自 Qwen-2.5 系列;
  • 70b:是 DeepSeek-R1-Distill-Llama-70B,蒸馏模型源自 Llama3.3-70B-Instruct

安装

ollama

  1. 首先要安装本地大模型运行框架 ollama
  2. 再根据机器的性能,下载对应参数的 DeepSeek-R1 模型;
模型版本 适用场景 内存占用 推理速度
1.5b 轻量级任务 3GB 15 token/s
7b 常规对话 10GB 8 token/s
70b 复杂推理 48GB 2 token/s

需要说明的是,ollama 除了 docker 方式部署外,也支持主流操作系统(WindowsmacOSLinux)的二进制安装包

当然老苏还是更喜欢在 NAS 上用 docker 方式部署

文章传送门:本地大模型运行框架Ollama

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
# 新建文件夹 ollama 和 子目录
mkdir -p /volume1/docker/ollama/data

# 进入 ollama 目录
cd /volume1/docker/ollama

# 运行容器(仅 CPU)
docker run -d \
--restart unless-stopped \
--name ollama \
-p 11434:11434 \
-v $(pwd)/data:/root/.ollama \
ollama/ollama

# 进入容器
docker exec --user root -it ollama /bin/bash

# 下载模型
ollama pull deepseek-r1:1.5b

# 运行模型
ollama run deepseek-r1:1.5b

# 联网会用到的文本嵌入式模型
ollama pull nomic-embed-text

WebUI

命令行方式用起来毕竟还是不太方便,虽然支持 ollamaWebUI 很多,而且也可以接入 One API 进行统一管理 ,但老苏觉得最佳的交互体验组合应该还是 Open WebUI

文章传送门:适配Ollama的前端界面Open WebUI

不过今天老苏不打算使用 Open WebUI,而是给大家推荐一款浏览器插件 Page Assist

它通过插件形式直接集成到侧边栏,无需复杂配置即可一键调用本地部署的 AI 模型,让您可以从任何网页与您的模型进行交互。

相比传统 WebUIPage Assist 具备一定的技术优势

特性 传统 WebUI Page Assist
部署复杂度 需独立服务部署 浏览器插件即装即用
资源占用 200MB+ 内存 <50MB 内存
上下文感知能力 手动复制粘贴 自动捕获网页选区
多模型切换 需重新加载页面 实时无缝切换

目前支持的浏览器

浏览器 侧边栏 与网页聊天 网页界面
Chrome
Brave
Firefox
Vivaldi
Edge
LibreWolf
Zen Browser
Opera
Arc

运行

设置

在浏览器中打开插件,会看到错误信息 Unable to connect to Ollama

这是因为我们并没有在本机安装 ollama,而是安装在 NAS 上,因此不能通过 127.0.0.1 或者 localhost 进行访问。

  1. 单击右上角的 Settings 图标

  1. 单击选项卡 Ollama Settings

  1. 修改 Ollama URL 并点 save 保存

  1. 展开Advance Ollama URL Configuration选项,并启用 Enable or Disable Custom Origin URL

  1. 回到主界面,如果 Ollama URL 地址没问题,应该会看到 Ollama is running 🦙

中文

这一步不是必须的,只是大部分人,也包括老苏,更习惯中文的使用环境

在设置界面 –> General Settings

设置为 简体中文

聊天

现在可以开始聊天了。因为机器性能的缘故,老苏用的是 1.5b 的模型

联网会需要用到文本嵌入模型

老苏使用了推荐的 nomic-embed-text

侧边栏

在任意一个网页,选中 Page Assist 插件点右键菜单,启动 侧边栏

勾选 与当前页面聊天

让模型总结一下页面的内容

参考文档

DeepSeek - 探索未至之境
地址:https://chat.deepseek.com/

deepseek-r1
地址:https://ollama.com/library/deepseek-r1

n4ze3m/page-assist: Use your locally running AI models to assist you in your web browsing
地址:https://github.com/n4ze3m/page-assist

page-assist/docs/connection-issue.md at main · n4ze3m/page-assist
地址:https://github.com/n4ze3m/page-assist/blob/main/docs/connection-issue.md