前言
DeepSeek 推出更强大的推理模型 DeepSeek R1 后一发不可收拾,迅速火遍全球,用户暴增,但巨大的流量以及一些不可控因素,DeepSeek 官网变得极不稳定,经常出现 “网络繁忙”。
最近,各大厂商包括阿里在内的各种大模型应用纷纷接入 DeepSeek,一方面为自己的用户提供更加极致的体验,另一方面也为 “Deepseek 难民” 提供了又快又稳的新通道。
就在近日,国内知名的厂商阿里云宣布接入 DeepSeek-R1,具体版本是 “DeepSeek R1 671B”,这可是 DeepSeek-R1 的联网满血版本,双核驱动效果 1+1>2,体验上比原版更胜一筹。四种方案让你零门槛,即刻拥有 DeepSeek-R1 满血版。趁热乎感觉挑选一个适合自己的方案来尝尝鲜吧!
产品介绍 DeepSeek 是热门的推理模型,能在少量标注数据下显著提升推理能力,尤其擅长数学、代码和自然语言等复杂任务。 本方案涵盖云上调用满血版 DeepSeek 的 API 及部署各尺寸模型的方式,无需编码,最快 5 分钟、最低 0 元即可部署实现。 解决方案链接: https://www.aliyun.com/solution/tech-solution/deepseek-r1-for-platforms?utm_content=g_1000401616
1.一睹为快(四种方案)
先跟随宏哥一起来看看有那四种方案,如下图所示:

通过上图我们都大致了解了,有这四种解决方案。那接下来跟随宏哥的脚步来逐个体验一下吧!
2.二尝为鲜
2.1 方案一:基于百炼 API 调用满血版(开箱即用)
2.1.1 准备账号
- 如果您还没有阿里云账号,请访问阿里云账号注册页面,根据页面提示完成注册。
- 如果是首次使用阿里云百炼,请先开通百炼模型服务,登录阿里云百炼大模型服务平台,根据下图提示进行开通,进行备用,如下图所示:
如果顶部显示如下消息,您需要开通百炼的模型服务,以获得免费额度。

百炼平台通过 API 调用 DeepSeek 系列模型的方法 。其中 deepseek-r1 与 deepseek-v3 分别有 100 万的免费 Token,部分蒸馏模型限时免费体验。
这里只推荐使用 deepseek-r1 与 deepseek-v3,其他效果略差。有人会问,你都没有试用了,怎么知道呢?呵呵,看价格啊,就知道了。如下图所示:

2.1.2 获取百炼 API-KEY
- 登录阿里云百炼大模型服务平台。
- 鼠标悬停于页面右上角的
图标上,在下拉菜单中单击API-KEY。如下图所示:
- 在左侧导航栏,选择全部 API-KEY 或我的 API-KEY,然后创建或查看 API-KEY,最后复制 API-KEY 以便在下一步骤中使用。
2.1.3 使用 Chatbox 客户端配置 百炼 API 进行对话
- 访问 Chatbox 下载地址下载并安装客户端,本方案以 macOS 为例,如下图所示:
- 运行并配置百炼 API ,单击设置,如下图所示:
- 在弹出的看板中按照如下表格进行配置,如下图所示:
| 项目 | 说明 | 示例值 |
| ---------------- | ------------------------------------------------------------------------------- | --------------------------------------------------------- |
| 模型提供方 | 下拉选择模型提供方。 | 添加自定义提供方 |
| 名称 | 填写定义模型提供方名称。 | 百炼 API
|
| API 域名 | 填写模型服务调用地址。 | https://dashscope.aliyuncs.com/compatible-mode/v1
|
| API 路径 | 填写模型服务调用路径。 | /chat/completions
|
| API 密钥 | 填写模型服务调用 API 密钥。 | 填写 上一步骤获取的百炼 API-KEY |
| 模型 | 填写调用的模型(本方案以 deepseek-r1 模型为例,可自行配置其它模型进行体验)。 | deepseek-r1
|
- 最终配置如下图所示,然后单击保存,如下图所示:

- 在文本输入框中可以进行对话交互。输入问题
你是谁?
或者其他指令后,调用模型服务获得相应的响应,如下图所示:
到此,第一种方案就已经体验完成,是不是很简单,不到五分钟就完事了。
2.2 方案二:基于人工智能平台 PAI 部署
2.2.1 准备账号
- 如果您还没有阿里云账号,请访问阿里云账号注册页面,根据页面提示完成注册。
2.2.2 部署 DeepSeek-R1 模型
Model Gallery 集成了众多 AI 开源社区中优质的预训练模型,方便用户快速选择和应用所需模型。在 Model Gallery 中选中合适的模型并点击部署,系统将触发 PAI-EAS 的部署流程。PAI-EAS 支持将模型服务部署在公共资源组或专属资源组,实现基于异构硬件(如 CPU 和 GPU )的模型加载和数据请求的实时响应。
- 登录PAI 控制台,首次登录需要开通服务,选择暂不绑定 OSS Bucket 至 PAI 默认工作空间,然后点击一键开通按钮,如下图所示:
- 开通成功后,点击进入控制台按钮,如下图所示:
- 在工作空间页面的左侧导航栏选择 Model Gallery,如下图所示:
- 在搜索框中输入
DeepSeek-R1
,在搜索结果中选择DeepSeek-R1-Distill-Qwen-7B,如下图所示:
- 点击DeepSeek-R1-Distill-Qwen-7B 进入模型详情页,然后点击右上角部署按钮,如下图所示:
- 在弹出的部署面板中,部署方式选择加速部署,加速方式选择vLLM,资源规格选择推荐使用 GPU:
ml.gu7i.c8m30.1-gu30,如下图所示:
说明:如果当前地域的资源不足,您还可以选择 V100(ecs.gn6e-c12g1.3xlarge)或 A10(ecs.gn7i-c8g1.2xlarge)类型的资源规格
- 其余配置项保持默认不变,点击左下角部署按钮。弹窗提示计费提醒,点击确定按钮,如下图所示:
- 部署完成后,如下图所示:
- 单击查看调用信息,在弹出的看板中选择公网地址调用,复制保存访问地址和 Token ,如下图所示:
2.2.3 使用 Chatbox 客户端配置 vLLM API 进行对话
- 访问 Chatbox 下载地址下载并安装客户端,本方案以 macOS 为例,如下图所示:
- 运行并配置 vLLM API ,单击设置,如下图所示:
- 在弹出的看板中按照如下表格进行配置,如下图所示:
| 项目 | 说明 | 示例值 |
| ---------------- | ----------------------------- | ---------------------------------- |
| 模型提供方 | 下拉选择模型提供方。 | 添加自定义提供方 |
| 名称 | 填写定义模型提供方名称。 | PAI DeepSeek-R1 |
| API 域名 | 填写模型服务调用地址。 | 前面步骤获取的调用信息,访问地址 |
| API 路径 | 填写 API 路径。 | /v1/chat/completions |
| API 密钥 | 填写模型服务调用 API 密钥。 | 前面步骤获取的调用信息,Token |
| 模型 | 填写调用的模型。 | DeepSeek-R1-Distill-Qwen-7B |
- 最终配置如下图所示,然后单击保存,如下图所示:

- 在文本输入框中可以进行对话交互。输入问题
你是谁?
或者其他指令后,调用模型服务获得相应的响应,如下图所示:
2.2.4PAI-EAS 管理模型服务
- 点击PAI 控制台左侧导航栏中的模型在线服务 (EAS) 可以看到当前部署的服务,如下图所示:
- 点击服务名称,进入服务详情页。通过 PAI-EAS 可以全面管理模型服务,包括但不限于查看服务状态、在线调试服务、扩缩容实例,以及实时监控服务性能。
2.2.5 清理资源(牢记)
若不用于生产环境,建议在体验后按提示清理资源,避免继续产生费用。
- 删除 1 个 PAI-EAS 模型服务:点击PAI 控制台左侧导航栏中的模型在线服务 (EAS)。找到目标服务,单击右侧操作列的删除,如下图所示:
2.3 基于函数计算 FC 一键部署
2.3.1 准备账号
- 如果您还没有阿里云账号,请访问阿里云账号注册页面,根据页面提示完成注册。
2.3.2 开通函数计算服务
-
访问函数计算首页。
- 单击管理控制台,然后单击立即购买即可自动开通服务,进入函数计算控制台。
说明
- 建议您使用阿里云账号开通服务,RAM 用户使用服务。
- 如果您之前已开通过函数计算服务,页面将直接跳转至函数计算控制台。
-
可选:首次登录用户,界面弹出推荐您创建 AliyunFcDefaultRole 默认角色对话框,单击创建,页面跳转至角色快捷创建页面,为您的账号创建默认角色AliyunFCDefaultRole。
2.3.3 部署 DeepSeek-R1 模型
- 请点击前往部署打开我们提供的云原生应用开发平台 CAP 项目模板,本方案地域以华北 2(北京)为例,其他参数选择默认配置,直接单击部署项目,最后在弹出面板中单击确认部署,部署预计等待 10~12 分钟。如下图所示:
- 首次使用云原生应用开放平台 CAP 会自动跳转到访问控制快速授权页面,滚动到浏览器底部单击确认授权,等待授权结束后单击返回控制台。
- 部署完成后,类似下图所示:
2.3.4 访问示例应用
- 应用部署完成之后按照下图找到访问地址,如下图所示:
- 点击访问地址,即可打开示例应用,如下图所示:
2.3.5 与模型对话
1.在文本输入框中可以进行对话交互。输入问题你是谁?
或者其他指令后,调用模型服务获得相应的响应,如下图所示:

2.3.6 修改 Ollama 模型服务配置(可选)
1.按照下图所示,通过修改模型服务预留实例数的配置,来实现实例伸缩,如下图所示:

2.3.7 使用 Chatbox 客户端配置 Ollama API 进行对话(可选)
- 获取 API 接入地址,按照下图所示,复制访问地址。
- 访问 Chatbox 下载地址下载并安装客户端,本方案以 macOS 为例,如下图所示:
- 运行并配置 Ollama API ,单击设置。
- 下拉选择模型提供方
Ollama API
,填写 API 域名(步骤 1 中获取的访问地址),下拉选择模型cap-deepseek-r1:latest
,最后单击保存,如下图所示:

- 在文本输入框中可以进行对话交互。输入问题
你是谁?
或者其他指令后,调用模型服务获得相应的响应,如下图所示:
2.3.8 清理资源(牢记)
在本方案中,您创建了 1 个云原生应用开发平台 CAP 项目,测试完方案后,您可以参考以下规则处理对应产品的实例,避免继续产生费用:
- 删除云原生应用开发平台 CAP 项目:
登录云原生应用开发平台 CAP 控制台,在左侧导航栏,选择项目,找到部署的目标项目,在操作列单击删除,然后根据页面提示删除项目。
2.4 基于 GPU 云服务器部署
2.4.1 准备账号
- 如果您还没有阿里云账号,请访问阿里云账号注册页面,根据页面提示完成注册。
2.4.2 创建专有网络 VPC 和交换机
您需要创建专有网络 VPC 和交换机,为云服务器 ECS 实例构建云上的私有网络。
- 登录专有网络管理控制台。
- 在顶部菜单栏,选择华东 1(杭州)地域。
- 在左侧导航栏,单击专有网络。
- 在专有网络页面,单击创建专有网络。
- 在创建专有网络页面,配置 1 个专有网络和 1 台交换机。配置交换机时,请确保交换机所属的可用区的 ECS 处于可用状态。
| 项目 | 说明 | 示例值 |
| ------------ | ----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | ---------------- |
| VPC 名称 | 建议您在部署过程中新建一个 VPC 作为本方案的专有网络。部署过程中填写 VPC 名称即可创建对应名称的 VPC。长度为 2~128 个字符,以英文大小写字母或中文开头,可包含数字、下划线()和连字符(-)。 | VPC_HZ |
| IPv4 网段 | 在创建 VPC 时,您必须按照无类域间路由块(CIDR block)的格式为您的专有网络划分私网网段。阿里云 VPC 支持的网段信息请参见专有网络组成部分。 | 192.168.0.0/16 |
| 交换机名称 | 建议您在部署过程中在新建的 VPC 内创建虚拟交换机。部署过程中填写交换机名称即可创建对应名称的虚拟交换机。长度为 2~128 个字符,以英文大小写字母或中文开头,可包含数字、下划线()和连字符(-)。 | vsw |
| 可用区 | 建议选择排序靠后的,一般此类可用区较新。新可用区资源更充沛,新规格也会在新的可用区优先上线。 | 杭州 可用区 J |
2.4.3 创建安全组
您已经创建了专有网络 VPC 和交换机。接下来您需要创建 1 个安全组,用于限制该专有网络 VPC 下交换机的网络流入和流出。
- 登录ECS 管理控制台。
- 在左侧导航栏,选择网络与安全>安全组。
- 在顶部菜单栏,选择华东 1(杭州)地域。
- 在安全组页面,单击创建安全组。
- 在创建安全组页面,创建 1 个安全组。
| 项目 | 说明 | 示例值 |
| ------------ | ------------------------------------------------------------------------------ | ---------------------------------- |
| 名称 | 设置安全组的名称。 | sg |
| 网络 | 选择之前规划的专有网络 VPC。 | VPC_HZ |
| 安全组类型 | 本方案用于为个人用户或组织的基础场景提供网络访问控制,建议您选择普通安全组。 | 普通安全组 |
| 入方向 | 本方案需要确保 22、8000、8080 端口号开启。 |
22
、8000
、8080
|
2.4.4 创建 GPU 云服务器
您已经创建好专有网络 VPC 和交换机等资源。接下来您需要创建 1 台 GPU 云服务器实例,用于部署应用程序。
- 登录ECS 管理控制台。
- 在左侧导航栏,选择实例与镜像 > 实例。
- 在顶部菜单栏,选择华东 1(杭州)地域。
- 在实例页面,单击创建实例。
- 下表中未说明的参数,在本方案中可使用默认值。
| 项目 | 说明 | 示例值 |
| ------------------------------------------------------------------------------------------------------------ | -------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- | ----------------------------------------- |
| 付费类型 | 付费类型影响实例的计费和收费规则。ECS 计费的详细信息请参见计费方式概述。 | 按量付费 |
| 地域 | 实例所在地域 | 华东 1(杭州) |
| 网络及可用区 | 选择刚刚创建的专有网络 VPC 和交换机。 | VPC_HZ、vsw |
| 实例 | ECS 的实例规格及内核、vCPU 数量。关于 ECS 选型的最佳实践请参见实例规格选型指导。说明建议选择配备 24GB 及以上 GPU 显存的实例,例如 ecs.gn7i-c16g1.4xlarge、ecs.gn7i-c8g1.2xlarge。 | ecs.gn7i-c32g1.8xlarge |
| 镜像 | ECS 的 “装机盘”,为 ECS 实例提供操作系统、预装软件等。 | 在公共镜像中选择Alibaba Cloud Linux |
| 镜像版本 | 镜像的版本。 | Alibaba Cloud Linux 3.2104 LTS 64 位 |
| 安装 GPU 驱动
| 勾选安装 GPU 驱动,在下拉列表中选择CUDA 版本 12.4.1 / Driver 版本 550.127.08 / CUDNN 版本 9.2.0.82 |
| 系统盘类型 | 硬盘类型。 | ESSD 云盘 |
| 系统盘容量 | 硬盘容量。 | 100 GiB |
| 公网 IP | 访问公网并对外提供网络服务。 | 选中分配公网 IPv4 地址 |
| 带宽计费方式 | 由于本方案为解决方案示例,因此选择按使用流量,以节省流量成本。 | 按使用流量(CDT) |
| 带宽值 | 本方案以 10 Mbps 为例。 | 10 Mbps |
| 安全组 | 使用之前创建的安全组。选择已有安全组。 | sg |
| 管理设置 | 选择设置自定义密码,方便后续登录机器安装服务环境。 | 自定义密码 |
2.4.5 登录服务器
- 登录 ECS 管理控制台。
- 在左侧导航栏,选择实例与镜像>实例。
- 在顶部菜单栏,选择华东 1(杭州)地域。
- 部署示例应用程序。
- 在实例页面,找到前面步骤中创建的 ECS 实例,查看IP 地址列,记录公网 IP ,然后在其右侧操作列,单击远程连接。
- 在远程连接对话框的通过 Workbench 远程连接区域,单击立即登录,然后根据页面提示登录。
- 输入密码并点击确定按钮,通过 Workbench 远程连接至 ECS 控制台。
- 如图所示 GPU 驱动尚未完成安装,请等待 10-20 分钟,安装完成后实例将自动重启,如下图所示:
- 驱动安装完成如下图所示,请刷新页面重新连接至 ECS 控制台,如下图所示:
2.4.6 部署模型
- 执行以下命令等待部署完成,如下图所示:
/bin/bash -c "$(curl -fsSL https://help-static-aliyun-doc.aliyuncs.com/install-script/deepseek-r1-for-platforms/vllm_install.sh)" -- deepseek-ai/DeepSeek-R1-Distill-Qwen-7B
- 如下图所示,说明模型部署完成,复制保存好 vLLM API TOKEN ,如下图所示:
2.4.7 访问示例应用
在浏览器中访问http://<ECS公网IP>:8080
,访问 Open WebUI,如下图所示:
说明:请将 更改为应用部署步骤记录的公网 IP。

2.4.8 与模型对话
在文本输入框中可以进行对话交互。输入问题你是谁?
或者其他指令后,调用模型服务获得相应的响应,如下图所示:

2.4.9 使用 Chatbox 客户端配置 vLLM API 进行对话(可选)
- 访问 Chatbox 下载地址下载并安装客户端,本方案以 macOS 为例,如下图所示:
- 运行并配置 vLLM API ,单击设置,如下图所示:
在弹出的看板中按照如下表格进行配置。
| 项目 | 说明 | 示例值 |
| ---------------- | ----------------------------- | ------------------------------- |
| 模型提供方 | 下拉选择模型提供方。 | 添加自定义提供方 |
| 名称 | 填写定义模型提供方名称。 | vLLM API |
| API 域名 | 填写模型服务调用地址。 | http://:8000 |
| API 路径 | 填写 API 路径。 | /v1/chat/completions |
| API 密钥 | 填写模型服务调用 API 密钥。 | 前面步骤获取的调用信息,Token |
| 模型 | 填写调用的模型。 | DeepSeek-R1-Distill-Qwen-7B |
最终配置如下图所示,然后单击保存,如下图所示:

在文本输入框中可以进行对话交互。输入问题你是谁?
或者其他指令后,调用模型服务获得相应的响应。

2.4.10 清理资源(牢记)
若不用于生产环境,建议在体验后按提示清理资源,避免继续产生费用。
- 释放 1 台 GPU 云服务器实例:登录ECS 控制台,在实例页面,找到目标实例,然后在操作列选择
>释放,根据界面提示释放实例。
- 删除 1 个安全组:登录ECS 控制台,在安全组页面,选择目标安全组,然后在操作列单击删除。
- 释放 1 台交换机:登录专有网络控制台,在交换机页面,找到目标交换机,然后在操作列单击删除,按照界面提示释放实例。
- 释放 1 个专有网络 VPC:登录专有网络控制台,在专有网络页面,找到目标 VPC,然后在操作列单击删除,按照界面提示释放实例。
以上是我根据官方文档实践的过程和部分截图,总体感觉还行。
3.DeepSeek 模型部署解决方案评测报告
3.1 部署文档准确性检查
在按照【零门槛、轻松部署您的专属 DeepSeek 模型】解决方案的部署文档进行操作时,步骤指引准确,逻辑清晰。在函数计算、模型在线服务以及百炼模型服务的开通过程中,未遇到报错或异常,整体流程顺畅。
3.2 引导与文档帮助评价
部署过程中,文档提供了详尽的步骤说明和截图指引,对于初次使用者来说非常友好。然而,在部分高级配置选项的说明上略显简略,建议增加更多实例和详细解释,以帮助用户更好地理解并做出选择。建议细化一些关键性步骤,要考虑照顾大部分小白和初入门的工程师,毕竟人人都不是大佬。
3.3 方案理解与优势认知
部署完成后,我对 DeepSeek 的多种使用方式有了较为深入的理解。方案描述清晰,突出了 DeepSeek 在少量标注数据下显著提升推理能力的优势,尤其在数学、代码和自然语言等复杂任务上的表现。但在某些技术细节上,如模型调优和性能监控方面,建议增加更多说明。
3.4 最适合的使用方式推荐
在体验过程中,我认为通过 API 调用 DeepSeek 模型的方式最适合我的需求。这种方式无需关心底层模型部署和运维,只需关注业务逻辑和数据处理,大大提高了开发效率。同时,API 调用方式灵活,易于集成到现有系统中。
3.5 方案满足度与采用意愿
本解决方案提供的 DeepSeek 模型使用方式基本满足了我的实际需求。通过云上调用和部署,降低了模型应用的门槛,提高了开发效率。我愿意采用本方案来使用 DeepSeek 模型,并期待在未来能够提供更多高级功能和优化选项,以满足不断变化的业务需求。
综上所述,DeepSeek 模型部署解决方案在部署流程、文档引导、方案理解和实际应用等方面均表现出色,值得推荐。