Deepseek私有化部署

2025-02-13

Linux 安装 ollama

自动安装

  1. 进入官网下载页面
  2. 一行命令自动下载并安装 curl -fsSL [https://ollama.com/install.sh](https://ollama.com/install.sh) | sh

手动安装

1. 确认系统要求

  • 操作系统:支持 Ubuntu、Debian、CentOS 等主流 Linux 发行版。
  • 依赖:确保已安装 curl 和 tar 工具。

2. 下载 Ollama 安装包

  1. 访问 Ollama 的官方网站或 GitHub 仓库,获取最新的 Linux 安装包(如 .tar.gz 或 .deb 文件)。
  2. 使用 curl 或 wget 下载安装包:
curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz

3. 解压安装包

  1. 使用 tar 解压下载的文件:
sudo tar -C /usr -xzf ollama-linux-amd64.tgz
  1. 启动 Ollama
ollama serve
  1. 新开启一个终端窗口,测试服务是否启动
ollama -v

4. 配置为系统服务(可选)

  1. 为 Ollama 创建用户及用户组
sudo useradd -r -s /bin/false -U -m -d /usr/share/ollama ollama
sudo usermod -a -G ollama $(whoami)
  1. 创建 systemd 服务文件/etc/systemd/system/ollama.service:
sudo vim /etc/systemd/system/ollama.service
  1. 添加以下内容:
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=$PATH"
# 自定义监听的端口,默认为:127.0.0.1:11434
#Environment="OLLAMA_HOST=0.0.0.0:11434” 

[Install]
WantedBy=default.target
  1. 启用并启动服务:
sudo systemctl enable ollama

sudo systemctl start ollama
  1. 启动Ollama并验证运行状态:
# 启动 ollama
sudo systemctl start ollama
# 查看 ollama 运行状态
sudo systemctl status ollama

image.png

ollama -v 显示:

image.png

5. 自定义

要自定义Ollama的安装,您可以通过运行来编辑Systemd服务文件或环境变量:

sudo systemctl edit ollama

或者,手动创建一个覆盖文件 /etc/systemd/system/ollama.service.d/override.conf

[Service]
Environment="OLLAMA_DEBUG=1"

6. 更新

通过再次运行安装脚本来更新Ollama:

curl -fsSL https://ollama.com/install.sh | sh

或者,重新下载 Ollama 安装包:

curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama-linux-amd64.tgz
sudo tar -C /usr -xzf ollama-linux-amd64.tgz

7. 安装特定版本

将Ollama_version环境变量与安装脚本一起安装特定版本的Ollama,包括预释放。

可以从发行版中找到版本号

比如:

curl -fsSL https://ollama.com/install.sh | OLLAMA_VERSION=0.5.7 sh

8. 查看运行日志

journalctl -e -u ollama

9. 卸载

卸载 ollama 服务:

sudo systemctl stop ollama
sudo systemctl disable ollama
sudo rm /etc/systemd/system/ollama.service

从以下bin目录中删除Ollama二进制文件

  • /usr/local/bin
  • /usr/bin
  • /bin
sudo rm $(which ollama)

删除下载的模型和Ollama服务用户和组:

sudo rm -r /usr/share/ollama
sudo userdel ollama
sudo groupdel ollama

删除已安装的库:

sudo rm -rf /usr/local/lib/ollama

拉取并安装 DeepSeek

image.png

目前DeepSeek-R1可选的模型有满血版671B,和蒸馏版1.5B、7B、8B、14B、32B、70B:

每个版本及对应的电脑硬件要求:

DeepSeek-R1 模型硬件要求

模型版本 CPU 核心数 内存 存储大小 存储类型 GPU 显存 GPU 型号 应用场景
DeepSeek-R1-671B 64 核 + 512 GB 1 TB + SSD 256GB+ 多节点分布式训练(如 8x A100/H100) 超大规模 AI 研究、通用人工智能(AGI)探索
DeepSeek-R1-1.5B 4 核 + 8GB + 16GB + SSD 4GB + 非必需(纯 CPU 推理),若 GPU 加速可选 4GB+ 显存 低资源设备部署,如树莓派、旧款笔记本、嵌入式系统或物联网设备
DeepSeek-R1-7B 8 核 + 16GB + 32GB + SSD 8GB + 推荐 8GB+ 显存(如 RTX 3070/4060) 中小型企业本地开发测试、中等复杂度 NLP 任务,例如文本摘要、翻译、轻量级多轮对话系统
DeepSeek-R1-8B 8 核 + 16GB + 32GB + SSD 8GB + 推荐 8GB+ 显存(如 RTX 3070/4060) 需更高精度的轻量级任务(如代码生成、逻辑推理)
DeepSeek-R1-14B 12 核 + 32GB + 32GB + SSD 16GB + 16GB+ 显存(如 RTX 4090 或 A5000) 企业级复杂任务、长文本理解与生成
DeepSeek-R1-32B 16 核 + 64GB + 64GB + SSD 24GB + 24GB+ 显存(如 A100 40GB 或双卡 RTX 3090) 高精度专业领域任务、多模态任务预处理
DeepSeek-R1-70B 32 核 + 128GB + 128GB + SSD 64GB + 多卡并行(如 2x A100 80GB 或 4x RTX 4090) 科研机构/大型企业、高复杂度生成任务

硬件要求说明

  • CPU 核心数: 每个版本对 CPU 核心数的要求决定了计算处理的能力,核心数越多,系统可以同时处理更多的任务。
  • 推荐 CPU 型号: 根据不同版本的规模和计算需求,推荐的 CPU 型号帮助选择性能合适的处理器。
  • 内存: 用于存储模型的中间结果和大规模数据。模型越大,对内存的需求也就越高。
  • 存储类型与大小: 推荐使用 SSD,尤其是 NVMe SSD,能够提供更快的数据读取和写入速度。存储大小根据模型和数据量的要求而不同。
  • GPU 数量与显卡型号: GPU 用于加速深度学习模型的训练和推理。GPU 数量决定了计算的并行能力,显卡型号影响性能。
  • GPU 显存: 显存大小决定了每个 GPU 能处理的模型大小,显存越大,能够处理的模型也就越大。

下载模型

运行下面的命令,下载对应的模型

ollama run deepseek-r1:7B

image.png

安装成功后的界面

image.png

可以直接使用了,简单提问试一下:

image.png

安装 Page Assist

安装Page Assist

通过 Chrome应用商店安装扩展插件,进入应用市场,搜索Page Assist

image.png

点击扩展插件,就可以看到刚刚加载的插件,点击📌将插件固定到浏览器中,方便以后随时打开使用

image.png

点击插件图标就可以打开UI界面了,和chatGPT的聊天界面类似,可以选择对应的模型开始提问。

image.png

点击模型下拉框,可以查看已经安装的模型,目前已经安装了1.5B和7B的deepseek蒸馏版模型。

image.png

接下来,可以选择一个模型提问试试

image.png

此时服务器CPU情况,推理速度很慢,且服务器资源占用量很大。

image.png

点击右上角的齿轮进入设置页面,可以进行一些基础的设置,如语言,语音识别语言等等。

同时可以管理网络搜索,选择搜索引擎,是否默认联网搜索等。

image.png

image.png

在“OpenAI 兼容 API”设置项中,会列出所有已添加的服务提供商,

image.png

点击“添加提供商”可以添加新的大模型服务提供商

image.png

比如,选择“DeepSeek”,会自动带出提供商名称和基础URL,当然也可以修改;填入对应的API key就可以使用了。

image.png

添加完成后,点击下载按钮,可以下载对应的模型

image.png

所有已下载的模型,可以在“管理模型”菜单中的 Custom Models 中列出

image.png

“管理知识”菜单栏,可以添加本地知识库,让DeepSeek更专业。

image.png

参考文档

  1. ollama官方仓库指引
  2. 连接失败的解决方案
  3. 设置ollama监听在0.0.0.0
  4. 如何在个人电脑上私有安装DeepSeek?彻底告别服务器繁忙!
  5. 本地部署「DeepSeek」模型硬件配置要求
  6. DeepSeek R1、V3的1.5b/7b/32b/70b和671b模型,本地部署硬件要求对应表
  7. 解决DeepSeek通过Ollama本地部署报错问题
  8. Ollama模型下载地址