人工智能大数据,工作效率生产力
Ctrl + D 收藏本站,更多好用AI工具
当前位置:首页 » 最新消息

DeepSeek 本地部署全攻略:保姆级教程

2025-03-18 7

DeepSeek 本地部署全攻略:保姆级教程

本文将详细介绍如何在本地部署 DeepSeek 模型,并以图文的形式把操作步骤展示出来,确保即使是初学者也能轻松上手。我们将从环境准备、安装依赖、模型下载到运行模型的每一步进行详细讲解。

DeepSeek 本地部署全攻略:保姆级教程插图

一、本地部署的适用场景

本地部署适合以下情况:

电脑配置较高,有独立显卡:本地部署需要较强的硬件支持,尤其是GPU需求。

有私密数据需要处理,担心泄密:本地部署可以避免数据上传到云端,确保数据安全。

需要与本地工作交流结合:处理高频任务或复杂任务时,本地部署可以提供更高的灵活性和效率。

日常使用量大,调用 API 需要收费:本地部署可以节省 API 调用的费用。

想要在开源模型基础上做个性化定制:本地部署允许你对模型进行二次开发和定制。

总结有钱有技术 + 怕泄密 → 本地部署 没钱没技术 + 图省事 → 直接使用网页/APP

·

二、本地部署的基本步骤

1. 环境准备:确保你的系统满足以下要求

操作系统:Linux(推荐 Ubuntu 20.04 或更高版本)或 Windows。

Python:3.8 或更高版本。

GPU:支持 CUDA 的 NVIDIA GPU(推荐16GB 显存以上)。

CUDA:11.2 或更高版本。

CUDNN:8.1 或更高版本。

Linux择按照我编辑的跟着操作就行,Windows根据自己的电脑类型,选择不同版本。

苹果电脑选最左边(蓝色框),Windows系统选最右边(红色框),之后点击下载(绿色框)。

DeepSeek 本地部署全攻略:保姆级教程插图1

2. 安装依赖

首先,安装必要的依赖项:

sudo apt-get update

sudo apt-get install -y python3-pip python3-dev python3-venv git

3. 创建虚拟环境

为了避免依赖冲突,建议在虚拟环境中操作:

python3 -m venv deepseek-env

source deepseek-env/bin/activate

4. 安装 PyTorch

根据你的 CUDA 版本安装 PyTorch。例如,CUDA 11.2 的安装命令如下:

pip install torch torchvision torchaudio –extra-index-url xxx://download.pytorch.org/whl/cu112

5. 克隆 DeepSeek 仓库

从 GitHub 克隆 DeepSeek 的代码库:

git clone xxxx://github.xxx/deepseek-ai/deepseek.git

cd deepseek

6. 安装项目依赖

安装项目所需的 Python 依赖:

pip install -r requirements.txt

7. 下载预训练模型

下载 DeepSeek 的预训练模型权重,并将其放置在 models/ 目录下。你可以从guan方提供的链接下载,或使用以下命令(假设模型权重已上传到某个服务器):

wget xxxx://example.xxx/path/to/deepseek_model.pth -O models/deepseek_model.pth

8. 配置环境变量

设置必要的环境变量,例如模型路径和 GPU 设备号:

export MODEL_PATH=models/deepseek_model.pth

export CUDA_VISIBLE_DEVICES=0

9. 运行模型

使用以下命令启动模型推理或训练:

python run.py –model_path $MODEL_PATH –input "你的输入文本"

10. 测试模型

你可以通过提供输入文本来测试模型的输出:

python run.py –model_path $MODEL_PATH –input "你好,DeepSeek!"

11. 训练模型(可选)

如果你想从头训练或微调模型,可以使用以下命令:

python train.py –model_path $MODEL_PATH –data_path path/to/your/data

12. 部署模型(可选)

你可以将模型部署为 API 服务,使用 Flask 或 FastAPI 等框架:

pip install fastapi uvicorn

uvicorn api:app –reload

13. 访问 API

如果部署成功,你可以通过 xxx://localhost:8000 访问 API,并通过 POST 请求发送输入文本。

使用 Ollama 进行本地部署(简化版)Windows系统

如果你觉得上述步骤过于复杂,可以使用 Ollama 来简化本地部署过程。Ollama 是一个用于管理 AI 模型的工具,特别适合初学者。

DeepSeek 本地部署全攻略:保姆级教程插图2

1. 安装 Ollama

打开浏览器,搜索 Ollama,进入guan网。

点击 Download,根据你的操作系统选择对应的版本(Windows、macOS 或 Linux)。

下载并安装 Ollama。安装完成后,桌面会出现一个羊驼图标。

DeepSeek 本地部署全攻略:保姆级教程插图3

特别说明:最好安装在C盘,安装在其它盘,需要重新配置环境变量。

2. 选择并安装模型

打开 Ollama guan网,点击右上角的 Models

选择 deepseek-r1 模型,并根据你的电脑性能选择合适的参数版本(如 1.5b、7b、14b 等)。

DeepSeek 本地部署全攻略:保姆级教程插图4

DeepSeek 本地部署全攻略:保姆级教程插图5

复制安装命令,例如:

ollama run deepseek-r1:1.5b

打开命令行(Windows 用户按 Win + R,输入 cmd),粘贴并运行上述命令。模型将自动下载并安装。

DeepSeek 本地部署全攻略:保姆级教程插图6

DeepSeek 本地部署全攻略:保姆级教程插图7

点击键盘上的“Enter”键,模型会自动下载。

DeepSeek 本地部署全攻略:保姆级教程插图8

3. 与模型对话

安装完成后,你可以直接在命令行中与模型对话:

ollama run deepseek-r1:1.5b

输入你的问题,模型会立即给出回答。

DeepSeek 本地部署全攻略:保姆级教程插图9

此时大模型安装在你的电脑上,就算断网也可以继续用,也不用担心数据泄露。

后续运行模型操作注意事项:

当你关闭电脑后,下次再打开ollama。会发现点击ollama的图标,电脑没反应。

因为你点击图标,只是启动了ollama,想要和大模型聊天,还是需要打开命令行。

继续通过命令行和大模型聊天:

同时按下键盘上的Win和R键,在弹出的窗口里输入cmd,点击确定打开命令行。在命令行界面,输入刚刚的命令“ollama run deepseek-r1:1.5b”。因为你之前已经下载过,这次无需下载,可以直接和模型聊天。

DeepSeek 本地部署全攻略:保姆级教程插图10

四、安装 Open-WebUI(可选)

Open-WebUI 可以为 Ollama 提供一个更友好的图形界面,但安装过程较为复杂,适合有一定技术基础的用户 (只是让交互界面更好看,可以不必安装)

这里就给大家简单的演示讲解下:

1. 安装 Docker

打开浏览器,搜索 Docker,进入guan网,根据你的电脑系统下载并安装 Docker 桌面版。

DeepSeek 本地部署全攻略:保姆级教程插图11

DeepSeek 本地部署全攻略:保姆级教程插图12

安装完成后,需要重新启动电脑,才能正常使用docker。重新启动后,如果你的桌面上出现了docker的图标,就表示安装成功了。

DeepSeek 本地部署全攻略:保姆级教程插图13

2. 安装 Open-WebUI

打开命令行,输入以下命令安装 Open-WebUI:(linux系统)

docker run -d -p 3000:8080 –add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data –name open-webui –restart always ghcr.io/open-webui/open-webui:main

安装完成后,打开浏览器,访问 xxx://localhost:3000,注册一个账号并登录。

在界面左上角选择你的模型,即可开始对话。

Windows:浏览器搜索Open-WebUI,进入guan网,并复制红框中的命令。

DeepSeek 本地部署全攻略:保姆级教程插图14

按照上面提到的步骤,打开命令行,输入复制的命令,等待安装完成。

运行Open-WebUI

双击docker的桌面图标,打开软件。点击红框端口,即可运行Open-WebUI。

DeepSeek 本地部署全攻略:保姆级教程插图15

初次访问时,需要注册一个账号。这些信息会储存在你的电脑里。

在界面左上角,选择你的模型,就可以开始对话啦。

DeepSeek 本地部署全攻略:保姆级教程插图16

五、常见问题

1. 如何查看已安装的模型?

在命令行中输入以下命令:

ollama list

2. 如何删除模型?

在命令行中输入以下命令:

ollama rm deepseek-r1:1.5b

在命令行输入,ollama rm + 模型名称,例如:ollama rm deepseek-r1:1.5b,就会自动删除对应模型。

3. ollama的其它功能

命令行输入ollama,展示出ollama的其它功能。

DeepSeek 本地部署全攻略:保姆级教程插图17

比如:输入“ollama stop”是停止模型运行,“run + 模型名”是运行对应模型。

六、总结

通过以上步骤,你可以轻松在本地部署 DeepSeek 模型。无论是通过手动安装还是使用 Ollama,本地部署都能为你提供更高的灵活性和数据安全性。

原文链接:https://blog.csdn.net/m0_51777213/article/details/145678224?ops_request_misc=%257B%2522request%255Fid%2522%253A%25228ece015f26469ce5400ed257c738cba1%2522%252C%2522scm%2522%253A%252220140713.130102334.pc%255Fblog.%2522%257D&request_id=8ece015f26469ce5400ed257c738cba1&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~blog~first_rank_ecpm_v1~times_rank-27-145678224-null-null.nonecase&utm_term=deepseek%E9%83%A8%E7%BD%B2

相关推荐

阅读榜

hellenandjeckett@outlook.com

加入QQ群:849112589

回顶部