如何在 Kubernetes 中部署 DeepSeek R1 大模型

随着 DeepSeek R1 的爆火以及 DeepSeek 平台的“服务器繁忙”不可用问题,很多人开始尝试在本地部署大模型。不过,并不是每个人都有高性能 GPU,这样即便把蒸馏后的小模型跑起来了,效果跟 DeepSeek 官方版本也会有很大差别(尤其是 10B 以下的版本)。

相较于本地部署,Kubernetes 作为新一代基础架构平台,不仅具备原生高效的资源调度与自动扩展能力,还能轻松实现跨区域、多模型的管理,是部署 DeepSeek R1 等大模型的理想选择。

为什么选择 Kubernetes 平台?

在面对大模型部署时,本地环境往往资源不足、维护繁琐,而 Kubernetes 则提供了一整套现代化解决方案,其核心优势包括:

部署前的准备

在动手部署 DeepSeek R1 之前,首先需要一个 Kubernetes 集群:

  1. 创建 Kubernetes 集群
    在 AWS、Azure 或其他云平台上创建一个支持 GPU 的 Kubernetes 集群。GPU 节点是大模型高性能运行的关键,务必参考官方配置指南确保资源充足。
  2. 配置 kubectl
    下载并正确配置 kubectl 命令行,将其指向新建的集群,以便顺利执行后续命令和管理集群资源。
  3. 安装 Helm
    Helm 是 Kubernetes 上的包管理工具,能够大幅简化应用部署与版本管理。请根据官方文档安装合适版本,并验证其与集群的兼容性。

用 Helm 部署 DeepSeek R1

接下来,就可以通过 Helm 来部署大模型了。下面的例子通过 Ollama 来运行大模型,并集成了 Open WebUI 作为前端界面。

  1. 添加 Helm 仓库将 Ollama Kubernetes 所在的 Helm 仓库添加到本地配置中:
    helm repo add ollama https://feisky.xyz/ollama-kubernetes
    helm repo update
    
  2. 安装或升级部署执行下面的命令完成 Ollama Kubernetes 的安装或版本升级:
     helm upgrade --install ollama ollama/ollama \
       --namespace=ollama \
       --create-namespace
    

    如果指定的命名空间不存在,命令会自动创建;如已存在,则直接升级。你也可以通过 --set 参数调整副本数、资源限制等配置,以满足不同业务需求。

  3. 开启服务端口转发部署完成后,为方便调试和访问,使用以下命令将集群内服务映射到本地:
    kubectl -n ollama port-forward service/ollama-webui 8080:80
    

    此时,打开浏览器访问 http://localhost:8080,创建账户后就可以可以开始使用了。

运维与最佳实践

部署只是第一步,后续的运维和优化同样关键。以下几点建议可供参考:

结语

希望这份指南能帮你借助 Kubernetes 部署一套稳定可靠的大语言模型,同时确保你的所有数据不会泄漏到第三方平台。(本文系转载,文章来源)


【AD】美国洛杉矶CN2 VPS/香港CN2 VPS/日本CN2 VPS推荐,延迟低、稳定性高、免费备份_搬瓦工vps

【AD】搬瓦工限量套餐:POWERBOX-30-1536,美国洛杉矶DC99 CN2 GIA,年付仅$41.95!