deepseek私有化部署怎么操作?deepseek私有化部署操作方法!

2025-06-15 02:269 浏览

DeepSeek 私有化部署操作方法如下:

使用 Ollama 部署 DeepSeek-R1

  1. 准备工作:配备 NVIDIA 显卡的电脑,显存≥8GB,建议预留 20GB 磁盘空间,确保可访问https://ollama.com/

  2. 安装 Ollama:访问 Ollama 官网,点击「Download」,选择 Windows 版本。双击安装包,保持默认选项,点击「Install」。右键点击 Windows 开始菜单,选择「终端(管理员)」,输入 “ollama --version” 验证安装。

  3. 模型部署:在 D 盘创建专用文件夹 “AI_Modelsdeepseek-R1”。在该文件夹内创建 “Modelfile” 文件,内容为 “FROM deepseek-ai/deepseek-R1:latest PARAMETER temperature 0.7 PARAMETER num_ctx 4096”。在文件夹内按住 Shift + 鼠标右键,选择「在此处打开 Powershell 窗口」,输入 “ollama create deepseek-r1 -f.Modelfile”。

  4. 可视化交互:安装 Docker 并完成基础配置,在「终端」执行 “docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main”,在浏览器输入 “http://localhost:3000” 访问控制台。

使用 KubeRay 部署 DeepSeek-R1

  1. 准备工作:开通账号,确保弹性容器集群资源满足 GPU 为 H800*16、CPU 为 128 核、内存为 512GB、磁盘为 1TB 的配置要求,开通弹性容器集群,准备配置文件和模型。

  2. KubeRay 集群部署:安装 KubeRay-Opertor,执行 “helm install kuberay-operator -n deepseek --version 1.2.2.”。启动集群,执行 “kubectl apply -f ray-cluster.yaml”。进行安装访问配置。

  3. 部署 DeepSeek-R1:部署模型并访问模型。

使用华为 ModelEngine 部署

  1. 登录转换:登录 ModelEngine 模型管理页面,上传 DeepSeek-R1 FP8 权重,转换为 BF16 精度模型权重。

  2. 下发部署:在模型服务页面,选择 BF16 精度的模型权重版本,下发推理服务,启动任务部署。

  3. 启动服务:使用 MindIE 推理框架启动 DeepSeek-R1 推理服务,支持 OpenAI API 调用风格的推理服务接口和访问方式。

最新回复0评论
游客