前述
2025 年的春节对于 IT 从业者来说充满了挑战与惊喜。挑战在于各大公有云厂商纷纷加班抢占 DeepSeek 领域的市场;惊喜在于中国终于拥有了从 0 到 1 的 AI 大模型,并且被 OpenAI 列入竞争对手行列。
各类大大小小的公司也跃跃欲试,纷纷想体验一下 DeepSeek 带来的创新与便捷。
今天,木子完成了 Azure、SiliconFlow、腾讯云 HAI、华为云 ModelArts Studio、OpenRouter 以及自建 Ollama + DeepSeek 等解决方案的体验。
现为大家提供一份 DeepSeek 全球各大公有云厂商价格一览表,帮助大家更快地找到适合自己的解决方案。
补充一点,目前全球各大公有云厂商的 DeepSeek 平台化建设刚刚起步,预计还需要 1-2 个月的时间才能完成。初期难免会遇到各种问题,请给予他们一些时间来改进和完善。
GPU 资源需求
此 GPU 资源需求来自腾讯云 TI 平台最佳实践。
参考链接:大模型推理所需资源指南
模型版本 | GPU 资源需求 |
---|---|
DeepSeek-V3 | 多机分布式部署,2 节点,单节点配置:HCCPNV6 机型 |
DeepSeek-R1 | 多机分布式部署,2 节点,单节点配置:HCCPNV6 机型 |
DeepSeek-R1-Distill-Qwen-1.5B | 12C44GB 1 卡 A10 |
DeepSeek-R1-Distill-Qwen-7B | 12C44GB 1 卡 A10 |
DeepSeek-R1-Distill-Llama-8B | 12C44GB 1 卡 A10 |
DeepSeek-R1-Distill-Qwen-14B | 16C96G 1 卡 A100 |
DeepSeek-R1-Distill-Qwen-32B | 32C192G 2 卡 A100 |
DeepSeek-R1-Distill-Llama-70B | 164C948G 8 卡 A100 |
DeepSeek 官方
DeepSeek 官方提供,由于服务器资源紧张,目前已经关闭了 API 接口充值。
价格提示:
- deepseek-chat 模型优惠期至北京时间 2025 年 2 月 8 日 24:00,期间 API 调用享历史价格,优惠结束后将按每百万输入 tokens 2 元,每百万输出 tokens 8 元计费。
- deepseek-reasoner 模型上线即按每百万输入 tokens 4 元,每百万输出 tokens 16 元计费。
价格详情参考:DeepSeek Pricing
模型版本:DeepSeek R1 671B
发布说明:赠送 ¥10.00
WebUI: https://chat.deepseek.com/
API 接口文档: https://api-docs.deepseek.com/zh-cn/
API 接口: https://api.deepseek.com
API Key:有
硅基流动 SiliconFlow
SiliconFlow 提供 DeepSeek 系列模型的体验与购买服务,包括 DeepSeek-R1 和 DeepSeek-V3,且价格合理。
-
DeepSeek-R1
- 输入:¥4/M Tokens
- 输出:¥16/M Tokens
-
DeepSeek-V3
- 输入:¥1/M Tokens(原价 ¥2)
- 输出:¥2/M Tokens(原价 ¥8)
模型版本:DeepSeek R1 671B
发布说明:暂时免费
WebUI: https://cloud.siliconflow.cn/playground/chat
API 接口文档: https://docs.siliconflow.cn/api-reference/chat-completions/chat-completions
API 接口: https://api.siliconflow.cn/v1/chat/completions
API Key:有
注意:Open-WebUI 可以通过标准 OpenAI API 接入 SiliconFlow 的 DeepSeek API,接口地址: https://api.siliconflow.cn/v1
腾讯云
腾讯云 HAI、Ti-One、LKE 三个平台都提供 DeepSeek 服务。
腾讯云 HAI
腾讯云 HAI 提供自部署模型的算力支持。默认支持 DeepSeek-R1:1.5B 和 DeepSeek-R1:7B 模型,价格实惠,以下配置仅 7.2 元/小时(从测试结果来看,此配置跑 DeepSeek-R1:70B 没有压力,响应速度较快)。
- 显存:2 x 32GB+(显卡型号:Tesla V100-SXM2-32GB)
- 算力:30+TFlops SP
- CPU:18~20 核
- 内存:80GB
(base) root@VM-0-80-ubuntu:~# nvidia-smi
Thu Feb 6 11:32:43 2025
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 525.105.17 Driver Version: 525.105.17 CUDA Version: 12.0 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
| | | MIG M. |
|===============================+======================+======================|
| 0 Tesla V100-SXM2... On | 00000000:00:09.0 Off | 0 |
| N/A 37C P0 27W / 300W | 3MiB / 32768MiB | 0% Default |
| | | N/A |
+-------------------------------+----------------------+----------------------+
| 1 Tesla V100-SXM2... On | 00000000:00:0A.0 Off | 0 |
| N/A 37C P0 27W / 300W | 3MiB / 32768MiB | 0% Default |
| | | N/A |
+-------------------------------+----------------------+----------------------+
+-----------------------------------------------------------------------------+
| Processes: |
| GPU GI CI PID Type Process name GPU Memory |
| ID ID Usage |
|=============================================================================|
| No running processes found |
+-----------------------------------------------------------------------------+
模型版本:DeepSeek R1 70B
发布说明:自建(7.2 元/小时)
API 接口文档: https://github.com/ollama/ollama/blob/main/docs/api.md (Ollama 官方标准接口)
WebUI: http://IP:6889/zh
API 接口: http://IP:6399/api/generate
API Key:无
简单实例:
curl http://IP:6399/api/generate -d '{
"model": "deepseek-r1:70b",
"prompt": "你是谁?"
}'
注意:由于腾讯云 HAI 跑起来大模型,没有启用鉴权功能,建议通过安全组限制访问源 IP。
腾讯云 Ti-One
腾讯云 Ti-One 平台,也提供快速部署 DeepSeek 系列模型。
如您需要通过腾讯云 Ti-One 平台部署专属 DeepSeek 服务,请参考以下文档:
最佳实践:快速部署和体验DeepSeek
资源推荐:大模型推理所需资源指南
LKE
- DeepSeek-R1
- 输入:¥4/M Tokens
- 输出:¥16/M Tokens
部署文档: https://cloud.tencent.com/document/product/1759/116006
模型版本:DeepSeek R1 671B
发布说明:收费
WebUI:有,在应用配置界面。
API 接口文档: https://cloud.tencent.com/document/api/1772/115963
API 接口: https://api.lkeap.cloud.tencent.com/v1
API Key:有
注:LKE 本身是【应用管理】逻辑的产品,对应接口也不兼容 OpenAI 接口规范,其它云厂商都采用了 OpenAI 兼容接口规范,这让开发者接入就比较麻烦了,需要单独适配接口。但在 2025年02月13日腾讯云启用了 OpenAI 兼容接口,可以参考此链接接入: https://cloud.tencent.com/document/product/1772/115968
您是否对于腾讯云三个产品到底用哪个迷糊了?
下方为腾讯云官方输出,内部资料(暴露了😂):
近日 DeepSeek 使用需求火热,专项总结了 DeepSeek 在腾讯云使用的四种场景与产品,供大家参考:
API 直接调用的方式(知识引擎)
- 1)参考: https://cloud.tencent.com/document/api/1772/115963
- 2)优势:支持 V3 和 R1,通过 API 方式调用,也无需购买资源部署,适合无需精调即可直接做推理的客户和场景。
基于 Ti-One 的算力推理/训练方式(精调或推理)
- 1)参考:部署指导 https://cloud.tencent.com/document/product/851/115962
- 2)优势:支持 V3和 R1,可根据业务对性能和参数规模的要求,选择不同的算力资源,支持后续按需精调;参数规模支持1.5B、7B、8B、14B、32B、70B、671B。各规模参数对资源的需求参考 https://cloud.tencent.com/document/product/851/107823
面向开发者开箱即用的 HAI 方式(个人)
- 1)参考: https://mp.weixin.qq.com/s/kZLPfXv3b1sxLSwyRVsEsg
- 2)优势:支持 R1,免除购买资源部署的过程,直接开箱使用;参数规模支持 1.5B、7B、8B、14B、32B、70B。
更多个性化需求场景,可考虑基于 tke 的部署方案,需要客户有一定的工程能力。
华为云 ModelArts Studio
华为云 ModelArts Studio (MaaS)已支持昇腾适配版的 DeepSeek-R1 蒸馏模型,支持的模型包含:
- DeepSeek-R1-Distill-Llama-8B
- DeepSeek-R1-Distill-Qwen-14B
- DeepSeek-R1-Distill-Qwen-32B
此外,ModelArts Studio 还提供免费体验,赠送 200 万体验 Tokens。
百度智能云
千帆 ModelBuilder 提供两周的免费使用(至 2 月 18 日 24:00),包括 DeepSeek-R1 和 DeepSeek-V3,价格比 SiliconFlow 还便宜,价格屠夫啊!!!
-
DeepSeek-R1
- 输入:¥2/M Tokens
- 输出:¥8/M Tokens
-
DeepSeek-V3
- 输入:¥0.8/M Tokens
- 输出:¥1.6/M Tokens
模型版本:DeepSeek R1 671B
发布说明:免费至 2 月 18 日 24:00
WebUI:无
API 接口文档: https://ai.baidu.com/ai-doc/WENXINWORKSHOP/qm6oyumhw
API 接口: https://qianfan.baidubce.com/v2/chat/completions
API Key:有
阿里云
阿里云在 Model Gallery 上线 DeepSeek-R1,提供自部署算力支持,硬件要求 ml.gu8v.c192m1024.8-gu120 (190 vCPU, 970 GiB, GU120 * 8) ,单价 316.25 元/小时。
模型版本:DeepSeek R1 671B
发布说明:自建(316.25 元/小时)
WebUI:无
API 接口文档: PAI Python SDK_人工智能平台 PAI(PAI)-阿里云帮助中心
API 接口:有
API Key:有
Gitee
Gitee 在 Gitee AI 平台上线 DeepSeek R1 从 1.5B 至 671B 满血版,每日免费调用次数 100,商业版 0.1 元/次调用。木子测试响应速度还不错。
模型版本:DeepSeek R1 671B
发布说明:商业版 0.1 元/次
产品价格:https://ai.gitee.com/serverless-api/packages/1910
WebUI:https://ai.gitee.com/hf-models/deepseek-ai/DeepSeek-R1/api
API 接口文档: https://ai.gitee.com/docs/openapi/v1
API 接口: https://ai.gitee.com/v1
API Key:有
火山引擎
火山引擎,在他们的 火山方舟 中,提供了满盘版的 DeepSeek R1 和 DeepSeek V3。木子体验下来速度还不错,平均每秒 9 Token。
- DeepSeek-R1
- 输入:¥2/M Tokens
- 输出:¥8/M Tokens
- DeepSeek-V3
- 输入:¥1/M Tokens
- 输出:¥4/M Tokens
模型版本:DeepSeek R1 671B
发布说明:商业版 0.1 元/次
产品价格: https://console.volcengine.com/ark/region:ark+cn-beijing/model/detail?Id=deepseek-r1
WebUI: https://console.volcengine.com/ark/region:ark+cn-beijing/experience/chat
API 接口文档: https://www.volcengine.com/docs/82379/1449737
API 接口: https://ark.cn-beijing.volces.com/api/v3/chat/completions
API Key:有
Azure
在 Azure AI Foundry 上目前可以免费使用 DeepSeek-R1。由于后端资源池控制比较严格,所以响应速度较慢。预计不久将上线价格计算器,方便用户进行价格估算。(收费后,算力引爆)
模型版本:DeepSeek R1 671B
发布说明:暂时免费,还未发布正式生产环境
WebUI:无(个人可以使用后台操场)
API 接口文档: https://learn.microsoft.com/en-us/azure/ai-studio/quickstarts/get-started-code?tabs=windows
API 接口: https://xxx.eastus2.models.ai.azure.com
API Key:有
AWS
AWS 在 Amazon Bedrock 和 SageMaker AI 上线 DeepSeek-R1
IBM Cloud
watsonx.ai 提供以下两个版本:
- DeepSeek-R1-Distill-Llama-8B 5.22美元/小时
- DeepSeek-R1-Distill-Llama-70B 20.85美元/小时
NVIDIA
NVIDIA NIM 上线 DeepSeek-R1
OpenRouter
OpenRouter 提供免费版本的 DeepSeek-R1(Free),但响应速度一般。其收费版支持银联信用卡充值,暂未体验。
自建 Ollama + DeepSeek
NVIDIA GeForce GTX 1080 Ti 跑 deepseek-r1:7b、deepseek-r1:8b 无压力,思考大概几秒钟(需要考虑上下文长度、Max Token 等参数)。但 deepseek-r1:14b、deepseek-r1:32b 较慢,大概需要思考 3 分钟,这与是否全 GPU 调度有很大关系。
Apple M4 Pro 48GB 跑 deepseek-r1:32b 无压力。
关于 DeepSeek 成本
DeepSeek V3 的“600 万美元”训练成本,但预训练成本只是总成本中很小的一部分,还有服务器成本、运营成本、人员成本。
DeepSeek 的总服务器资本支出约为 16 亿美元,运营此类集群的成本高达 9.44 亿美元。
详细参阅:DeepSeek Debates: Chinese Leadership On Cost, True Training Cost, Closed Model Margin Impacts – SemiAnalysis
成本对比
从成本角度考虑,火山引擎与百度千帆最低:
- DeepSeek-R1
- 输入:¥2/M Tokens
- 输出:¥8/M Tokens
DeepSeek 官方、腾讯云 LKE、SiliconFlow :
- DeepSeek-R1
- 输入:¥4/M Tokens
- 输出:¥16/M Tokens
相关教程
在接下来的几天里,木子将陆续发布 Azure AI Foundry、腾讯云 HAI、华为云 ModelArts Studio 以及自建 Ollama 等 DeepSeek 部署教程。如果您觉得内容对您有所帮助,请关注我们,以便随时获取最新动态。
AI 系列文章参考链接:AI 大模型系列教程,您想要的都有,企业级落地方案。
变更记录
- 2025-02-04
- 新增百度智能云
- 2025-02-06
- 补充所有公有云平台 DeepSeek API 文档、API 接口信息。
- 新增关于 DeepSeek 成本说明。
- 新增阿里云、AWS、NVIDIA
- 新增 GPU 资源需求
- 2025-02-07
- 新增 IBM Cloud
- 新增 DeepSeek 官方
- 2025-02-10
- 新增 Gitee AI
- 新增 火山引擎
- 新增 腾讯云 LKE
- 2025-02-14
- 新增腾讯云 LKE 兼容 OpenAI 接口文档
如果您知道有其它平台提供 DeepSeek 服务的,欢迎在下方留言,木子将补充至文档中。

可以补充下IBM的,$5.22/h
https://www.ibm.com/new/announcements/deepseek-r1-distilled-models-now-available-on-watsonx-ai
🐮,一会和 IBM 小伙伴确认一下,补充进去。
腾讯云推理API价格:https://cloud.tencent.com/document/product/1772/115963