全球公有云 DeepSeek R1 购买指南

前述

2025 年的春节对于 IT 从业者来说充满了挑战与惊喜。挑战在于各大公有云厂商纷纷加班抢占 DeepSeek 领域的市场;惊喜在于中国终于拥有了从 0 到 1 的 AI 大模型,并且被 OpenAI 列入竞争对手行列。
各类大大小小的公司也跃跃欲试,纷纷想体验一下 DeepSeek 带来的创新与便捷。
今天,木子完成了 Azure、SiliconFlow、腾讯云 HAI、华为云 ModelArts Studio、OpenRouter 以及自建 Ollama + DeepSeek 等解决方案的体验。
现为大家提供一份 DeepSeek 全球各大公有云厂商价格一览表,帮助大家更快地找到适合自己的解决方案。
补充一点,目前全球各大公有云厂商的 DeepSeek 平台化建设刚刚起步,预计还需要 1-2 个月的时间才能完成。初期难免会遇到各种问题,请给予他们一些时间来改进和完善。

GPU 资源需求

此 GPU 资源需求来自腾讯云 TI 平台最佳实践。
参考链接:大模型推理所需资源指南

模型版本 GPU 资源需求
DeepSeek-V3 多机分布式部署,2 节点,单节点配置:HCCPNV6 机型
DeepSeek-R1 多机分布式部署,2 节点,单节点配置:HCCPNV6 机型
DeepSeek-R1-Distill-Qwen-1.5B 12C44GB 1 卡 A10
DeepSeek-R1-Distill-Qwen-7B 12C44GB 1 卡 A10
DeepSeek-R1-Distill-Llama-8B 12C44GB 1 卡 A10
DeepSeek-R1-Distill-Qwen-14B 16C96G 1 卡 A100
DeepSeek-R1-Distill-Qwen-32B 32C192G 2 卡 A100
DeepSeek-R1-Distill-Llama-70B 164C948G 8 卡 A100

DeepSeek 官方

DeepSeek 官方提供,由于服务器资源紧张,目前已经关闭了 API 接口充值。

价格提示

  1. deepseek-chat 模型优惠期至北京时间 2025 年 2 月 8 日 24:00,期间 API 调用享历史价格,优惠结束后将按每百万输入 tokens 2 元,每百万输出 tokens 8 元计费。
  2. deepseek-reasoner 模型上线即按每百万输入 tokens 4 元,每百万输出 tokens 16 元计费。

价格详情参考DeepSeek Pricing
模型版本:DeepSeek R1 671B
发布说明:赠送 ¥10.00
WebUIhttps://chat.deepseek.com/
API 接口文档https://api-docs.deepseek.com/zh-cn/
API 接口https://api.deepseek.com
API Key:有


硅基流动 SiliconFlow

SiliconFlow 提供 DeepSeek 系列模型的体验与购买服务,包括 DeepSeek-R1 和 DeepSeek-V3,且价格合理。

  • DeepSeek-R1

    • 输入:¥4/M Tokens
    • 输出:¥16/M Tokens
  • DeepSeek-V3

    • 输入:¥1/M Tokens(原价 ¥2)
    • 输出:¥2/M Tokens(原价 ¥8)

模型版本:DeepSeek R1 671B
发布说明:暂时免费
WebUIhttps://cloud.siliconflow.cn/playground/chat
API 接口文档https://docs.siliconflow.cn/api-reference/chat-completions/chat-completions
API 接口https://api.siliconflow.cn/v1/chat/completions
API Key:有

注意:Open-WebUI 可以通过标准 OpenAI API 接入 SiliconFlow 的 DeepSeek API,接口地址: https://api.siliconflow.cn/v1

腾讯云

腾讯云 HAI、Ti-One、LKE 三个平台都提供 DeepSeek 服务。

腾讯云 HAI

腾讯云 HAI 提供自部署模型的算力支持。默认支持 DeepSeek-R1:1.5B 和 DeepSeek-R1:7B 模型,价格实惠,以下配置仅 7.2 元/小时(从测试结果来看,此配置跑 DeepSeek-R1:70B 没有压力,响应速度较快)。

  • 显存:2 x 32GB+(显卡型号:Tesla V100-SXM2-32GB)
  • 算力:30+TFlops SP
  • CPU:18~20 核
  • 内存:80GB
(base) root@VM-0-80-ubuntu:~# nvidia-smi
Thu Feb  6 11:32:43 2025       
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 525.105.17   Driver Version: 525.105.17   CUDA Version: 12.0     |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|                               |                      |               MIG M. |
|===============================+======================+======================|
|   0  Tesla V100-SXM2...  On   | 00000000:00:09.0 Off |                    0 |
| N/A   37C    P0    27W / 300W |      3MiB / 32768MiB |      0%      Default |
|                               |                      |                  N/A |
+-------------------------------+----------------------+----------------------+
|   1  Tesla V100-SXM2...  On   | 00000000:00:0A.0 Off |                    0 |
| N/A   37C    P0    27W / 300W |      3MiB / 32768MiB |      0%      Default |
|                               |                      |                  N/A |
+-------------------------------+----------------------+----------------------+

+-----------------------------------------------------------------------------+
| Processes:                                                                  |
|  GPU   GI   CI        PID   Type   Process name                  GPU Memory |
|        ID   ID                                                   Usage      |
|=============================================================================|
|  No running processes found                                                 |
+-----------------------------------------------------------------------------+

模型版本:DeepSeek R1 70B
发布说明:自建(7.2 元/小时)
API 接口文档https://github.com/ollama/ollama/blob/main/docs/api.md (Ollama 官方标准接口)
WebUIhttp://IP:6889/zh
API 接口http://IP:6399/api/generate
API Key:无
简单实例

curl http://IP:6399/api/generate -d '{
  "model": "deepseek-r1:70b",
  "prompt": "你是谁?"
}'

注意:由于腾讯云 HAI 跑起来大模型,没有启用鉴权功能,建议通过安全组限制访问源 IP。

腾讯云 Ti-One

腾讯云 Ti-One 平台,也提供快速部署 DeepSeek 系列模型。
如您需要通过腾讯云 Ti-One 平台部署专属 DeepSeek 服务,请参考以下文档:
最佳实践:快速部署和体验DeepSeek
资源推荐:大模型推理所需资源指南

LKE

  • DeepSeek-R1
    • 输入:¥4/M Tokens
    • 输出:¥16/M Tokens

部署文档https://cloud.tencent.com/document/product/1759/116006
模型版本:DeepSeek R1 671B
发布说明:收费
WebUI:有,在应用配置界面。
API 接口文档https://cloud.tencent.com/document/api/1772/115963
API 接口https://api.lkeap.cloud.tencent.com/v1
API Key:有
:LKE 本身是【应用管理】逻辑的产品,对应接口也不兼容 OpenAI 接口规范,其它云厂商都采用了 OpenAI 兼容接口规范,这让开发者接入就比较麻烦了,需要单独适配接口。但在 2025年02月13日腾讯云启用了 OpenAI 兼容接口,可以参考此链接接入: https://cloud.tencent.com/document/product/1772/115968

您是否对于腾讯云三个产品到底用哪个迷糊了?

下方为腾讯云官方输出,内部资料(暴露了😂):

近日 DeepSeek 使用需求火热,专项总结了 DeepSeek 在腾讯云使用的四种场景与产品,供大家参考:

  1. API 直接调用的方式(知识引擎)

  2. 基于 Ti-One 的算力推理/训练方式(精调或推理)

  3. 面向开发者开箱即用的 HAI 方式(个人)

  4. 更多个性化需求场景,可考虑基于 tke 的部署方案,需要客户有一定的工程能力。

华为云 ModelArts Studio

华为云 ModelArts Studio (MaaS)已支持昇腾适配版的 DeepSeek-R1 蒸馏模型,支持的模型包含:

  • DeepSeek-R1-Distill-Llama-8B
  • DeepSeek-R1-Distill-Qwen-14B
  • DeepSeek-R1-Distill-Qwen-32B

此外,ModelArts Studio 还提供免费体验,赠送 200 万体验 Tokens。

百度智能云

千帆 ModelBuilder 提供两周的免费使用(至 2 月 18 日 24:00),包括 DeepSeek-R1 和 DeepSeek-V3,价格比 SiliconFlow 还便宜,价格屠夫啊!!!

  • DeepSeek-R1

    • 输入:¥2/M Tokens
    • 输出:¥8/M Tokens
  • DeepSeek-V3

    • 输入:¥0.8/M Tokens
    • 输出:¥1.6/M Tokens

模型版本:DeepSeek R1 671B
发布说明:免费至 2 月 18 日 24:00
WebUI:无
API 接口文档https://ai.baidu.com/ai-doc/WENXINWORKSHOP/qm6oyumhw
API 接口https://qianfan.baidubce.com/v2/chat/completions
API Key:有

阿里云

阿里云在 Model Gallery 上线 DeepSeek-R1,提供自部署算力支持,硬件要求 ml.gu8v.c192m1024.8-gu120 (190 vCPU, 970 GiB, GU120 * 8) ,单价 316.25 元/小时。

模型版本:DeepSeek R1 671B
发布说明:自建(316.25 元/小时)
WebUI:无
API 接口文档PAI Python SDK_人工智能平台 PAI(PAI)-阿里云帮助中心
API 接口:有
API Key:有

Gitee

Gitee 在 Gitee AI 平台上线 DeepSeek R1 从 1.5B 至 671B 满血版,每日免费调用次数 100,商业版 0.1 元/次调用。木子测试响应速度还不错。

模型版本:DeepSeek R1 671B
发布说明:商业版 0.1 元/次
产品价格https://ai.gitee.com/serverless-api/packages/1910
WebUIhttps://ai.gitee.com/hf-models/deepseek-ai/DeepSeek-R1/api
API 接口文档https://ai.gitee.com/docs/openapi/v1
API 接口https://ai.gitee.com/v1
API Key:有

火山引擎

火山引擎,在他们的 火山方舟 中,提供了满盘版的 DeepSeek R1 和 DeepSeek V3。木子体验下来速度还不错,平均每秒 9 Token。

  • DeepSeek-R1
    • 输入:¥2/M Tokens
    • 输出:¥8/M Tokens
  • DeepSeek-V3
    • 输入:¥1/M Tokens
    • 输出:¥4/M Tokens

模型版本:DeepSeek R1 671B
发布说明:商业版 0.1 元/次
产品价格https://console.volcengine.com/ark/region:ark+cn-beijing/model/detail?Id=deepseek-r1
WebUIhttps://console.volcengine.com/ark/region:ark+cn-beijing/experience/chat
API 接口文档https://www.volcengine.com/docs/82379/1449737
API 接口https://ark.cn-beijing.volces.com/api/v3/chat/completions
API Key:有


Azure

Azure AI Foundry 上目前可以免费使用 DeepSeek-R1。由于后端资源池控制比较严格,所以响应速度较慢。预计不久将上线价格计算器,方便用户进行价格估算。(收费后,算力引爆)

模型版本:DeepSeek R1 671B
发布说明:暂时免费,还未发布正式生产环境
WebUI:无(个人可以使用后台操场)
API 接口文档https://learn.microsoft.com/en-us/azure/ai-studio/quickstarts/get-started-code?tabs=windows
API 接口https://xxx.eastus2.models.ai.azure.com
API Key:有

AWS

AWS 在 Amazon Bedrock 和 SageMaker AI 上线 DeepSeek-R1

IBM Cloud

watsonx.ai 提供以下两个版本:

  • DeepSeek-R1-Distill-Llama-8B 5.22美元/小时
  • DeepSeek-R1-Distill-Llama-70B 20.85美元/小时

NVIDIA

NVIDIA NIM 上线 DeepSeek-R1

OpenRouter

OpenRouter 提供免费版本的 DeepSeek-R1(Free),但响应速度一般。其收费版支持银联信用卡充值,暂未体验。

自建 Ollama + DeepSeek

NVIDIA GeForce GTX 1080 Ti 跑 deepseek-r1:7b、deepseek-r1:8b 无压力,思考大概几秒钟(需要考虑上下文长度、Max Token 等参数)。但 deepseek-r1:14b、deepseek-r1:32b 较慢,大概需要思考 3 分钟,这与是否全 GPU 调度有很大关系。
Apple M4 Pro 48GB 跑 deepseek-r1:32b 无压力。

关于 DeepSeek 成本

DeepSeek V3 的“600 万美元”训练成本,但预训练成本只是总成本中很小的一部分,还有服务器成本、运营成本、人员成本。
DeepSeek 的总服务器资本支出约为 16 亿美元,运营此类集群的成本高达 9.44 亿美元。
详细参阅:DeepSeek Debates: Chinese Leadership On Cost, True Training Cost, Closed Model Margin Impacts – SemiAnalysis

成本对比

从成本角度考虑,火山引擎与百度千帆最低:

  • DeepSeek-R1
    • 输入:¥2/M Tokens
    • 输出:¥8/M Tokens

DeepSeek 官方、腾讯云 LKE、SiliconFlow :

  • DeepSeek-R1
    • 输入:¥4/M Tokens
    • 输出:¥16/M Tokens

相关教程

在接下来的几天里,木子将陆续发布 Azure AI Foundry、腾讯云 HAI、华为云 ModelArts Studio 以及自建 Ollama 等 DeepSeek 部署教程。如果您觉得内容对您有所帮助,请关注我们,以便随时获取最新动态。

AI 系列文章参考链接AI 大模型系列教程,您想要的都有,企业级落地方案。

变更记录

  • 2025-02-04
    • 新增百度智能云
  • 2025-02-06
    • 补充所有公有云平台 DeepSeek API 文档、API 接口信息。
    • 新增关于 DeepSeek 成本说明。
    • 新增阿里云、AWS、NVIDIA
    • 新增 GPU 资源需求
  • 2025-02-07
    • 新增 IBM Cloud
    • 新增 DeepSeek 官方
  • 2025-02-10
    • 新增 Gitee AI
    • 新增 火山引擎
    • 新增 腾讯云 LKE
  • 2025-02-14
    • 新增腾讯云 LKE 兼容 OpenAI 接口文档

如果您知道有其它平台提供 DeepSeek 服务的,欢迎在下方留言,木子将补充至文档中。

Avatar photo

关于 木子

Email: [email protected] 微信:rockylinuxcn QQ: 2306867585
Founder of the Rocky Linux Chinese community, MVP、VMware vExpert、TVP, advocate for cloud native technologies, with over ten years of experience in site reliability engineering (SRE) and the DevOps field. Passionate about Cloud Computing、Microservices、CI&CD、DevOps、Kubernetes, currently dedicated to promoting and implementing Rocky Linux in Chinese-speaking regions.
用一杯咖啡支持我们,我们的每一篇[文档]都经过实际操作和精心打磨,而不是简单地从网上复制粘贴。期间投入了大量心血,只为能够真正帮助到您。

评论

  1. Jincheng
    1周前
    2025-2-07 10:12:44
    • Avatar photo
      博主
      Jincheng
      1周前
      2025-2-07 14:54:36

      🐮,一会和 IBM 小伙伴确认一下,补充进去。

发送评论 编辑评论


				
|´・ω・)ノ
ヾ(≧∇≦*)ゝ
(☆ω☆)
(╯‵□′)╯︵┴─┴
 ̄﹃ ̄
(/ω\)
∠( ᐛ 」∠)_
(๑•̀ㅁ•́ฅ)
→_→
୧(๑•̀⌄•́๑)૭
٩(ˊᗜˋ*)و
(ノ°ο°)ノ
(´இ皿இ`)
⌇●﹏●⌇
(ฅ´ω`ฅ)
(╯°A°)╯︵○○○
φ( ̄∇ ̄o)
ヾ(´・ ・`。)ノ"
( ง ᵒ̌皿ᵒ̌)ง⁼³₌₃
(ó﹏ò。)
Σ(っ °Д °;)っ
( ,,´・ω・)ノ"(´っω・`。)
╮(╯▽╰)╭
o(*////▽////*)q
>﹏<
( ๑´•ω•) "(ㆆᴗㆆ)
😂
😀
😅
😊
🙂
🙃
😌
😍
😘
😜
😝
😏
😒
🙄
😳
😡
😔
😫
😱
😭
💩
👻
🙌
🖕
👍
👫
👬
👭
🌚
🌝
🙈
💊
😶
🙏
🍦
🍉
😣
Source: github.com/k4yt3x/flowerhd
颜文字
Emoji
小恐龙
花!
上一篇
下一篇