DeepSeek R1 本地部署指南:Ollama+Docker+OpenWebUI

4

DeepSeek R1 本地部署完全指南:Ollama、Docker 与 OpenWebUI 整合方案

2025年1月,DeepSeek 推出了 DeepSeek-R1 大模型,以其卓越的性能和亲民的成本,在人工智能领域掀起了一股热潮。DeepSeek 提供了多种灵活的使用方式,以适应不同用户和应用场景的需求。其中,本地部署因其在数据安全、性能优化、高度定制、成本控制、离线可用性以及技术自主性等方面的显著优势而备受青睐。

本文将深入探讨基于 Ollama、Docker 和 OpenWebUI 的 DeepSeek-R1 本地化部署流程,并结合具体的代码实例进行演示,助您轻松搭建属于自己的 AI 应用环境。

DeepSeek R1 本地部署

1. 硬件与软件需求

在开始部署之前,务必确保您的系统满足以下硬件和软件需求:

1.1 硬件配置

运行 DeepSeek R1 的硬件配置直接关系到模型的性能和响应速度。以下是推荐的配置:

  • 基本推荐配置:
    • CPU:8 核或以上
    • 内存:32GB 或以上
    • 存储:100GB SSD 或以上
    • GPU:NVIDIA GTX 1080 或同等性能显卡
  • DeepSeek-7B 推荐配置:
    • NVIDIA RTX 3060 以上显卡
    • 16GB 以上内存
    • 50GB SSD 存储空间
  • DeepSeek-70B 推荐配置:
    • NVIDIA RTX 4060 以上显卡
    • 32GB 以上内存
    • 200GB SSD 存储空间

本教程所使用的硬件配置为:

  • CPU:Intel i5-12490/3.00GHz
  • 内存:32GB
  • 存储:500GB SSD
  • GPU:NVIDIA GTX 3060

1.2 软件环境

除了硬件,软件环境也至关重要。本教程采用以下软件版本:

  • 操作系统:Windows 10
  • 编程语言:Python 3.8
  • 深度学习框架:PyTorch 1.7

此外,还涉及到容器化工具 Docker,以及用于模型运行的 Ollama。这些组件将在后续步骤中详细介绍。

2. Ollama 下载与安装

2.1 Ollama 简介

Ollama 是一款强大的开源工具,旨在简化本地大型语言模型的运行。它支持一键下载和运行各种开源模型,如 Llama、Qwen 和 DeepSeek 等。Ollama 提供高效、灵活的大模型部署和管理解决方案,显著降低了模型部署的复杂性,让开发者可以更专注于模型的应用和创新。

官网地址:https://ollama.com/ 下载地址:https://ollama.com/download

本教程选择 Ollama Windows 版本 进行下载。

Ollama 下载

2.2 Ollama 安装步骤

  1. 下载安装包: 从 Ollama 官网下载适用于 Windows 的安装包 (OllamaSetup.exe)。
  2. 运行安装程序: 双击下载的安装包,按照提示完成安装过程。通常情况下,直接采用默认设置即可。
  3. 验证安装: 安装完成后,打开命令提示符(CMD)窗口,输入 ollama -v 命令。如果成功显示 Ollama 的版本号,例如 0.5.7,则表示安装成功。

Ollama 版本验证

2.3 Ollama 运行方式

Ollama 在后台运行,没有图形用户界面。您可以通过命令行与其交互。

  1. 启动 Ollama: Ollama 安装完成后会自动启动,您可以在系统托盘中看到 Ollama 的图标。
  2. 验证 Ollama 运行状态: 打开浏览器,输入 http://localhost:11434/。如果页面显示 “Ollama is running”,则表示 Ollama 正在正常运行。

Ollama 运行状态

3. DeepSeek-R1 模型安装

3.1 使用 Ollama 安装 DeepSeek-R1 模型

  1. 查找 DeepSeek-R1 模型: 访问 Ollama 官网 搜索 DeepSeek-R1 模型。Ollama 提供了多种 DeepSeek-R1 的模型版本,包括 1.5b、7b、14b、32b、70b 等,分别对应不同的参数规模。

DeepSeek-R1 模型搜索

  1. 选择模型版本: 点击进入 DeepSeek-R1 模型页面,选择适合您硬件配置和需求的版本。一般来说,参数量越大,模型性能越强,但同时也需要更多的存储和计算资源。以下是一些常用版本的参数和大小:
    • DeepSeek-R1 1.5b:参数量 15 亿,模型大小 1.1GB
    • DeepSeek-R1 7b:参数量约 70 亿,模型大小 4.7GB
    • DeepSeek-R1 14b:参数量约 140 亿,模型大小 9GB

建议初学者先下载较小的 1.5b 模型,验证整个安装流程是否畅通,然后再根据实际需求和硬件配置选择更合适的版本。

DeepSeek-R1 模型版本选择

  1. 安装模型: 在命令提示符窗口运行相应的安装命令。例如,要安装 7b 模型,可以执行以下命令:
ollama run deepseek-r1:7b

Ollama 会自动下载并安装该模型。

DeepSeek-R1 模型安装

默认情况下,模型会保存在 C:\Users\%username%\.ollama\models 目录下。您可以通过设置系统环境变量 OLLAMA_MODELS 来修改模型的保存路径。例如,要将模型保存在 C:\Model 目录下,您可以: * 新建一个文件夹 C:\Model。 * 在系统环境变量中添加一个系统变量,变量名为 OLLAMA_MODELS,变量值为 C:\Model

  1. 验证安装: 安装完成后,命令行会显示 “success”,表示模型安装成功。

DeepSeek-R1 模型安装成功

3.2 使用 DeepSeek-R1 模型

  1. 运行模型: 在命令提示符窗口运行以下命令来启动 DeepSeek-R1 模型:
ollama run deepseek-r1:7b

启动后,您就可以在提示行输入内容,与 DeepSeek-R1 模型进行交互了。

DeepSeek-R1 模型交互

DeepSeek-R1 模型交互示例

  1. 获取帮助: 在交互过程中,您可以输入 /? 命令来获取帮助信息,了解可用的命令和选项。

DeepSeek-R1 模型帮助信息

虽然通过本地命令行窗口可以使用 DeepSeek-R1 模型,但这种交互方式不够直观和便捷。为了提升用户体验,接下来我们将介绍如何通过 Docker 和 Open WebUI 搭建图形用户界面,从而更轻松地使用 DeepSeek-R1 模型。

4. Docker 安装与配置

Docker 是一种流行的容器化技术,可以帮助您快速构建、部署和运行应用程序。在本教程中,我们将使用 Docker 来部署 Open WebUI。

4.1 检查安装环境

在安装 Docker 之前,需要确保您的系统满足以下条件:

  1. 开启虚拟化: 打开任务管理器(Ctrl+Alt+Delete),选择 “性能” 选项卡,然后点击 “CPU”。在 “虚拟化” 旁边,确认显示为 “已启用”。

检查虚拟化是否启用

如果未启用虚拟化,您需要在开机时进入 BIOS 设置,找到 “Advanced” -> “CPU Configuration” -> “Secure Virtual Machine”,将其设置为 “Enabled”。

  1. 启用 Hyper-V: 打开 “控制面板”,选择 “程序”,然后点击 “启用或关闭 Windows 功能”。勾选 “Hyper-V 管理工具” 和 “Hyper-V 平台”。

启用 Hyper-V

  1. 设置 WSL 2: 以管理员身份打开命令提示符窗口,输入以下命令将默认 WSL 版本设置为 2:
wsl --set-default-version 2

WSL (Windows Subsystem for Linux) 允许您在 Windows 上直接运行 Linux 发行版,而无需进行任何修改。

  1. 更新 WSL: 在命令提示符窗口,输入以下命令更新 WSL:
wsl --update --web-download

更新 WSL

4.2 安装 Docker Desktop

Docker Desktop 是 Docker 官方提供的桌面应用程序,旨在简化在 Windows 和 macOS 系统上构建、运行和共享容器化应用程序的过程。它提供了一个方便的工具集,使用户能够快速部署容器化应用程序,同时还包括 Docker Engine、Docker CLI 和 Docker Compose 等强大功能。

  1. 下载 Docker Desktop: 访问 Docker 官方网站,下载 Docker 安装程序

下载 Docker Desktop

  1. 安装 Docker Desktop: 双击下载的安装程序,按照提示完成安装。建议选择推荐设置。

  2. 登录 Docker 账号: 安装完成后,根据提示登录您的 Docker 账号。您可以使用 GitHub 账号登录。

登录 Docker 账号

  1. 验证安装: 安装完成后,打开命令提示符窗口,输入 docker version 命令。如果成功显示 Docker 的版本号,例如 27.4.0,则表示安装成功。

验证 Docker 安装

4.3 配置国内镜像源

由于网络原因,直接从 Docker Hub 拉取镜像可能会比较慢,甚至出现连接超时的错误。为了解决这个问题,我们可以配置国内的镜像源来加速镜像拉取。

  1. 打开 Docker 设置: 右键单击系统托盘中的 Docker 图标,选择 “Settings”。
  2. 配置镜像源: 在 “Settings” 窗口中,选择 “Docker Engine”,将以下内容复制到文本框中:
{
  "builder": {
    "gc": {
      "defaultKeepStorage": "20GB",
      "enabled": true
    }
  },
  "experimental": false,
  "features": {
    "buildkit": true
  },
  "registry-mirrors": [
    "https://docker.m.daocloud.io",
    "https://docker.1panel.live",
    "https://registry.docker-cn.com",
    "https://cr.console.aliyun.com",
    "https://mirror.ccs.tencentyun.com"
  ]
}

配置 Docker 镜像源

  1. 重启 Docker: 点击 “Apply & restart” 按钮,重启 Docker。
  2. 验证配置: 重启完成后,再次执行 docker run hello-world 命令。如果能够成功拉取 hello-world 镜像并运行,则表示镜像源配置成功。

验证 Docker 镜像源配置

5. Open WebUI 安装与使用

Open WebUI 是一款可扩展、功能丰富、用户友好的自托管 WebUI,专为离线操作而设计。它支持各种 LLM 运行程序,包括 Ollama 和 OpenAI 兼容的 API。Open WebUI 适配了 Ollama 接口,提供了通过 Web 界面访问 Ollama API 的便捷方式。

5.1 安装和启动 Open WebUI

  1. 访问 Open WebUI GitHub 仓库: 打开 https://github.com/open-webui/open-webui

Open WebUI GitHub 仓库

  1. 获取安装命令: 在 README 文件中找到用于 Ollama 的安装命令:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Open WebUI 安装命令

  1. 执行 Docker 命令: 在命令提示符窗口执行上述 docker 命令,自动下载并安装 Open WebUI。

执行 Open WebUI Docker 命令

5.2 登录 Open WebUI 并进入 DeepSeek-R1

  1. 访问 Open WebUI 界面: 在浏览器中输入 localhost:3000/authhttp://127.0.0.1:3000,进入 Open WebUI 首页。

Open WebUI 登录界面

  1. 注册账号: 注册账号密码,创建管理员账号。
  2. 登录 Open WebUI: 注册完成后,使用您的账号密码登录。
  3. 开始使用 DeepSeek-R1: 登录成功后,您将进入 DeepSeek-R1 模型的首页,可以开始与模型进行交互了。

Open WebUI DeepSeek-R1 界面

现在,您已经成功地在本地部署了 DeepSeek-R1 模型,可以通过 Open WebUI 界面与模型进行聊天和交互。

Open WebUI DeepSeek-R1 交互

Open WebUI DeepSeek-R1 交互示例

通过本教程,您已经掌握了基于 Ollama、Docker 和 Open WebUI 在本地部署 DeepSeek-R1 大模型的完整流程。现在,您可以尽情探索 DeepSeek-R1 的强大功能,并将其应用于各种实际场景中。