DeepSeek 推出更强大的推理模型 DeepSeek R1 后一发不可收拾,迅速火遍全球,用户暴增,但巨大的流量以及一些不可控因素,DeepSeek 官网变得极不稳定,经常出现 “网络繁忙”。
最近,各大厂商包括阿里在内的各种大模型应用纷纷接入 DeepSeek,一方面为自己的用户提供更加极致的体验,另一方面也为 “Deepseek 难民” 提供了又快又稳的新通道。
就在近日,国内知名的厂商阿里云宣布接入 DeepSeek-R1,具体版本是 “DeepSeek R1 671B”,这可是 DeepSeek-R1 的联网满血版本,双核驱动效果 1+1>2,体验上比原版更胜一筹。四种方案让你零门槛,即刻拥有 DeepSeek-R1 满血版。趁热乎感觉挑选一个适合自己的方案来尝尝鲜吧!
产品介绍 DeepSeek 是热门的推理模型,能在少量标注数据下显著提升推理能力,尤其擅长数学、代码和自然语言等复杂任务。 本方案涵盖云上调用满血版 DeepSeek 的 API 及部署各尺寸模型的方式,无需编码,最快 5 分钟、最低 0 元即可部署实现。 解决方案链接: https://www.aliyun.com/solution/tech-solution/deepseek-r1-for-platforms?utm_content=g_1000401616
不想看文字的,可以看视频操作:https://www.bilibili.com/video/BV1ag9yYpEFb
先跟随宏哥一起来看看有那四种方案,如下图所示:

通过上图我们都大致了解了,有这四种解决方案。那接下来跟随宏哥的脚步来逐个体验一下吧!
如果顶部显示如下消息,您需要开通百炼的模型服务,以获得免费额度。

百炼平台通过 API 调用 DeepSeek 系列模型的方法 。其中 deepseek-r1 与 deepseek-v3 分别有 100 万的免费 Token,部分蒸馏模型限时免费体验。
这里只推荐使用 deepseek-r1 与 deepseek-v3,其他效果略差。有人会问,你都没有试用了,怎么知道呢?呵呵,看价格啊,就知道了。如下图所示:

图标上,在下拉菜单中单击API-KEY。如下图所示:
| 项目 | 说明 | 示例值 |
| ---------------- | ------------------------------------------------------------------------------- | --------------------------------------------------------- |
| 模型提供方 | 下拉选择模型提供方。 | 添加自定义提供方 |
| 名称 | 填写定义模型提供方名称。 | 百炼 API |
| API 域名 | 填写模型服务调用地址。 | https://dashscope.aliyuncs.com/compatible-mode/v1 |
| API 路径 | 填写模型服务调用路径。 | /chat/completions |
| API 密钥 | 填写模型服务调用 API 密钥。 | 填写 上一步骤获取的百炼 API-KEY |
| 模型 | 填写调用的模型(本方案以 deepseek-r1 模型为例,可自行配置其它模型进行体验)。 | deepseek-r1 |

你是谁?或者其他指令后,调用模型服务获得相应的响应,如下图所示:
到此,第一种方案就已经体验完成,是不是很简单,不到五分钟就完事了。
Model Gallery 集成了众多 AI 开源社区中优质的预训练模型,方便用户快速选择和应用所需模型。在 Model Gallery 中选中合适的模型并点击部署,系统将触发 PAI-EAS 的部署流程。PAI-EAS 支持将模型服务部署在公共资源组或专属资源组,实现基于异构硬件(如 CPU 和 GPU )的模型加载和数据请求的实时响应。
DeepSeek-R1,在搜索结果中选择DeepSeek-R1-Distill-Qwen-7B,如下图所示:
ml.gu7i.c8m30.1-gu30,如下图所示:
说明:如果当前地域的资源不足,您还可以选择 V100(ecs.gn6e-c12g1.3xlarge)或 A10(ecs.gn7i-c8g1.2xlarge)类型的资源规格
| 项目 | 说明 | 示例值 |
| ---------------- | ----------------------------- | ---------------------------------- |
| 模型提供方 | 下拉选择模型提供方。 | 添加自定义提供方 |
| 名称 | 填写定义模型提供方名称。 | PAI DeepSeek-R1 |
| API 域名 | 填写模型服务调用地址。 | 前面步骤获取的调用信息,访问地址 |
| API 路径 | 填写 API 路径。 | /v1/chat/completions |
| API 密钥 | 填写模型服务调用 API 密钥。 | 前面步骤获取的调用信息,Token |
| 模型 | 填写调用的模型。 | DeepSeek-R1-Distill-Qwen-7B |

你是谁?或者其他指令后,调用模型服务获得相应的响应,如下图所示:
若不用于生产环境,建议在体验后按提示清理资源,避免继续产生费用。
1.在文本输入框中可以进行对话交互。输入问题你是谁?或者其他指令后,调用模型服务获得相应的响应,如下图所示:

1.按照下图所示,通过修改模型服务预留实例数的配置,来实现实例伸缩,如下图所示:

Ollama API,填写 API 域名(步骤 1 中获取的访问地址),下拉选择模型cap-deepseek-r1:latest,最后单击保存,如下图所示:
你是谁?或者其他指令后,调用模型服务获得相应的响应,如下图所示:
在本方案中,您创建了 1 个云原生应用开发平台 CAP 项目,测试完方案后,您可以参考以下规则处理对应产品的实例,避免继续产生费用:
您需要创建专有网络 VPC 和交换机,为云服务器 ECS 实例构建云上的私有网络。
您已经创建了专有网络 VPC 和交换机。接下来您需要创建 1 个安全组,用于限制该专有网络 VPC 下交换机的网络流入和流出。
22、8000、8080 |您已经创建好专有网络 VPC 和交换机等资源。接下来您需要创建 1 台 GPU 云服务器实例,用于部署应用程序。
| 勾选安装 GPU 驱动,在下拉列表中选择CUDA 版本 12.4.1 / Driver 版本 550.127.08 / CUDNN 版本 9.2.0.82 |
| 系统盘类型 | 硬盘类型。 | ESSD 云盘 |
| 系统盘容量 | 硬盘容量。 | 100 GiB |
| 公网 IP | 访问公网并对外提供网络服务。 | 选中分配公网 IPv4 地址 |
| 带宽计费方式 | 由于本方案为解决方案示例,因此选择按使用流量,以节省流量成本。 | 按使用流量(CDT) |
| 带宽值 | 本方案以 10 Mbps 为例。 | 10 Mbps |
| 安全组 | 使用之前创建的安全组。选择已有安全组。 | sg |
| 管理设置 | 选择设置自定义密码,方便后续登录机器安装服务环境。 | 自定义密码 |
/bin/bash -c "$(curl -fsSL https://help-static-aliyun-doc.aliyuncs.com/install-script/deepseek-r1-for-platforms/vllm_install.sh)" -- deepseek-ai/DeepSeek-R1-Distill-Qwen-7B
在浏览器中访问http://<ECS公网IP>:8080,访问 Open WebUI,如下图所示:
说明:请将 更改为应用部署步骤记录的公网 IP。

在文本输入框中可以进行对话交互。输入问题你是谁?或者其他指令后,调用模型服务获得相应的响应,如下图所示:

在弹出的看板中按照如下表格进行配置。
| 项目 | 说明 | 示例值 |
| ---------------- | ----------------------------- | ------------------------------- |
| 模型提供方 | 下拉选择模型提供方。 | 添加自定义提供方 |
| 名称 | 填写定义模型提供方名称。 | vLLM API |
| API 域名 | 填写模型服务调用地址。 | http://:8000 |
| API 路径 | 填写 API 路径。 | /v1/chat/completions |
| API 密钥 | 填写模型服务调用 API 密钥。 | 前面步骤获取的调用信息,Token |
| 模型 | 填写调用的模型。 | DeepSeek-R1-Distill-Qwen-7B |
最终配置如下图所示,然后单击保存,如下图所示:

在文本输入框中可以进行对话交互。输入问题你是谁?或者其他指令后,调用模型服务获得相应的响应。

若不用于生产环境,建议在体验后按提示清理资源,避免继续产生费用。
>释放,根据界面提示释放实例。以上是我根据官方文档实践的过程和部分截图,总体感觉还行。
在按照【零门槛、轻松部署您的专属 DeepSeek 模型】解决方案的部署文档进行操作时,步骤指引准确,逻辑清晰。在函数计算、模型在线服务以及百炼模型服务的开通过程中,未遇到报错或异常,整体流程顺畅。
部署过程中,文档提供了详尽的步骤说明和截图指引,对于初次使用者来说非常友好。然而,在部分高级配置选项的说明上略显简略,建议增加更多实例和详细解释,以帮助用户更好地理解并做出选择。建议细化一些关键性步骤,要考虑照顾大部分小白和初入门的工程师,毕竟人人都不是大佬。
部署完成后,我对 DeepSeek 的多种使用方式有了较为深入的理解。方案描述清晰,突出了 DeepSeek 在少量标注数据下显著提升推理能力的优势,尤其在数学、代码和自然语言等复杂任务上的表现。但在某些技术细节上,如模型调优和性能监控方面,建议增加更多说明。
在体验过程中,我认为通过 API 调用 DeepSeek 模型的方式最适合我的需求。这种方式无需关心底层模型部署和运维,只需关注业务逻辑和数据处理,大大提高了开发效率。同时,API 调用方式灵活,易于集成到现有系统中。
本解决方案提供的 DeepSeek 模型使用方式基本满足了我的实际需求。通过云上调用和部署,降低了模型应用的门槛,提高了开发效率。我愿意采用本方案来使用 DeepSeek 模型,并期待在未来能够提供更多高级功能和优化选项,以满足不断变化的业务需求。
综上所述,DeepSeek 模型部署解决方案在部署流程、文档引导、方案理解和实际应用等方面均表现出色,值得推荐。