简体 | 繁体
loading...
新闻频道
  • 首页
  • 新闻
  • 读图
  • 财经
  • 教育
  • 家居
  • 健康
  • 美食
  • 时尚
  • 旅游
  • 影视
  • 博客
  • 群吧
  • 论坛
  • 电台
  • 焦点新闻
  • 图片新闻
  • 视频新闻
  • 生活百态
  • 娱乐新闻
您的位置: 文学城 » 新闻 » 焦点新闻 » DeepSeek公布成本收入和利润率!最高日赚346万

DeepSeek公布成本收入和利润率!最高日赚346万

文章来源: 极客公园 于 2025-03-01 07:42:46 - 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
被阅读次数

智东西3月1日消息,DeepSeek的开源周竟然还有彩蛋!开源第六天,DeepSeek不仅放出了DeepSeek-V3/R1推理系统技术秘籍,还公开了每日成本和理论收入!

DeepSeek统计了2月27日24点到2月28日24点,计算出其每日总成本为87072美元(折合人民币约63万元)。如果所有Token都以DeepSeek-R1的价格计费,每日总收入将为562027美元(折合人民币约409万元),成本利润率达到545%。也就是说,理论上DeepSeek每日净赚474955美元(折合人民币约346万元)。

但实际情况是,DeepSeek的收入大幅下降。由于DeepSeek-V3定价低于R1;网页端和应用程序免费,只有部分服务有收入;非高峰时段还有夜间折扣,使得其实际收入并没有这么高。

此外,DeepSeek还公开了DeepSeek-V3/R1推理系统概述:为了达到推理更高的吞吐量和更低的延迟,研究人员采用了跨节点的专家咨询(EP),并且利用EP增大batch size、将通信延迟隐藏在计算之后、执行负载均衡,应对EP的系统复杂性挑战。

发布一小时,GitHub Star数已超过5600。

评论区的网友频频cue OpenAI,直呼“被抢劫”了!

还有网友以OpenAI的定价帮DeepSeek算账:

GitHub地址:

https://github.com/deepseek-ai/open-infra-index/blob/main/202502OpenSourceWeek/day_6_one_more_thing_deepseekV3R1_inference_system_overview.md

一、每日总成本为87072美元,利润率理论上最高545%

DeepSeek V3和R1的所有服务均使用H800 GPU,使用和训练一致的精度,即矩阵计算和dispatch传输采用和训练一致的FP8格式,core-attention计算和combine传输采用和训练一致的BF16,最大程度保证了服务效果。

此外,由于白天的高服务负载和晚上的低负载,DeepSeek在白天高峰时段跨所有节点部署推理服务。在低负载的夜间时段减少了推理节点,并将资源分配给研究和训练。

在过去的24小时内(2月27日24点到2月28日24点),V3和R1推理服务的合并峰值节点占用率达到278,平均占用率为226.75个节点(每个节点包含8个H800 GPU)。假设一个H800 GPU的租赁成本为每小时2美元,则每日总成本为87072美元。

▲推理服务的H800节点计数

在24小时统计周期内(2月27日24点到2月28日24点),V3和R1:

总输入Token 608B,其中342B Token(56.3%)命中KVCache硬盘缓存。

总输出Token 168B,平均输出速度为每秒20-22 tps,每个输出Token的平均kvcache长度为4989个Token。

每个H800节点在prefill期间提供约73.7k token/s输入(包括缓存命中)的平均吞吐量,或在解码期间提供约14.8k token/s输出。

以上统计数据包括所有来自web、APP、API的用户请求。

如果所有Token都以DeepSeek-R1的价格计费,每日总收入将为562027美元,成本利润率为545%。

*R1的定价:0.14美元输入Token(缓存命中),0.55美元输入令牌(缓存未命中),2.19美元输出令牌。

然而,DeepSeek的实际收入并没有这么多,其原因是DeepSeek-V3的定价明显低于R1;网页端和应用程序免费,所有只有一部分服务被货币化;夜间折扣在非高峰时段自动适用。

▲成本和理论收入

二、EP增加系统复杂性,三大策略应对

DeepSeek的解决方案采用了跨节点的专家并行(EP)。

首先,EP显著扩展了批处理大小,增强了GPU矩阵计算效率并提高了吞吐量;其次,EP将专家分布在不同GPU上,每个GPU只处理专家的一小部分(减少内存访问需求),从而降低延迟。

然而,EP在两个方面增加了系统复杂性:EP引入跨节点的传输,为了优化吞吐,需要设计合适的计算流程使得传输和计算可以同步进行;EP涉及多个节点,因此天然需要Data Parallelism(DP),不同的DP之间需要进行负载均衡。

DeepSeek通过三种方式应对了这些挑战:

利用EP增大batch size、将通信延迟隐藏在计算之后、执行负载均衡。

1、大规模跨节点专家并行(EP)

由于DeepSeek-V3/R1的专家数量众多,并且每层256个专家中仅激活其中8个。模型的高度稀疏性决定了其必须采用很大的overall batch size,才能给每个专家提供足够的expert batch size,从而实现更大的吞吐、更低的延时。需要大规模跨节点专家并行(Expert Parallelism/EP)。

DeepSeek采用多机多卡间的专家并行策略来达到以下目的:

Prefill:路由专家EP32、MLA和共享专家DP32,一个部署单元是4节点,32个冗余路由专家,每张卡9个路由专家和1个共享专家

Decode:路由专家EP144、MLA和共享专家DP144,一个部署单元是18节点,32个冗余路由专家,每张卡2个路由专家和1个共享专家

2、计算-通信重叠

多机多卡的专家并行会引入比较大的通信开销,所以使用了双batch重叠来掩盖通信开销,提高整体吞吐。

对于prefill阶段,两个batch的计算和通信交错进行,一个batch在进行计算的时候可以去掩盖另一个batch的通信开销。

▲预充阶段的通信-计算重叠

对于decode阶段,不同阶段的执行时间有所差别,所以DeepSeek把attention部分拆成了两个stage,共计5个stage的流水线来实现计算和通信的重叠。

▲解码阶段的通信-计算重叠

3、实现最佳负载均衡

由于采用了很大规模的并行(包括数据并行和专家并行),如果某个GPU的计算或通信负载过重,将成为性能瓶颈,拖慢整个系统;同时其他GPU因为等待而空转,造成整体利用率下降。因此我们需要尽可能地为每个 GPU 分配均衡的计算负载、通信负载。

Prefill Load Balancer的核心问题:不同数据并行(DP)实例上的请求个数、长度不同,导致core-attention计算量、dispatch发送量也不同。

其优化目标是,各GPU的计算量尽量相同(core-attention计算负载均衡)、输入的token数量也尽量相同(dispatch发送量负载均衡),避免部分GPU处理时间过长。

Decode Load Balancer的关键问题是,不同数据并行(DP)实例上的请求数量、长度不同,导致core-attention计算量(与KVCache占用量相关)、dispatch发送量不同。

其优化目标是,各GPU的KVCache占用量尽量相同(core-attention计算负载均衡)、请求数量尽量相同(dispatch发送量负载均衡)。

专家并行负载均衡器的核心问题:对于给定MoE模型,存在一些天然的高负载专家(expert),导致不同GPU的专家计算负载不均衡。

其优化目标是,每个GPU上的专家计算量均衡(即最小化所有GPU的dispatch接收量的最大值)。

▲DeepSeek在线推理系统图

  • 春季特大酬宾!美国专利产品【骨精华】买6送2、买12送5!六周改善关节疼痛,延缓骨质疏松。
查看评论(12)
  • 文学城简介
  • 广告服务
  • 联系我们
  • 招聘信息
  • 注册笔名
  • 申请版主
  • 收藏文学城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2026 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

24小时热点排行

美联航推“沙发式经济舱”:3人座可躺平 舒适长途体验
此文全网被禁——张雪峰:理想主义的反面
人形机器人和梅拉尼娅同步出现在白宫东厅
中国经济学家巴曙松失联 或与习整肃王岐山有关
美军“闪电夺岛”计划曝光!豪赌中东最危险一战




24小时讨论排行

BBC:伊朗拒绝与美国谈判,反映不信任
经济学人:如果川普强行打开海峡 会是怎样的战斗
川普讽101枚导弹打不到林肯号 50枚是中国制 习震怒
中国航发著名专家严红突传逝世 年仅57岁海归博导
国际奥委会:生物学女性才能参加女子赛事 测基因
川普又发惊人之语“伊朗是癌症,我们已切除”
伊朗考虑美国和平方案 油价回落 美股收高…
涉贪7亿 中国航空工业集团前董事长谭瑞松判死缓
柯文哲判17年、褫夺公权6年,柯妈:政治迫害
18小时投入战场部队有多强?第82空降师实力曝光
退役体操冠军,直播“擦边”之后
中国将成为伊朗战争的赢家?不参战却在布局未来
伊朗战事搅局对华博弈,美国战略重心再度偏移
房价暴跌的惠州,成了中产的迪拜平替
川普称“我可以帮忙处理蔡英文” 习近平当年震惊
名校毕业年薪7万进Costco 白人父骄傲 华人却吵翻了
文学城新闻
切换到网页版

DeepSeek公布成本收入和利润率!最高日赚346万

极客公园 2025-03-01 07:42:46

智东西3月1日消息,DeepSeek的开源周竟然还有彩蛋!开源第六天,DeepSeek不仅放出了DeepSeek-V3/R1推理系统技术秘籍,还公开了每日成本和理论收入!

DeepSeek统计了2月27日24点到2月28日24点,计算出其每日总成本为87072美元(折合人民币约63万元)。如果所有Token都以DeepSeek-R1的价格计费,每日总收入将为562027美元(折合人民币约409万元),成本利润率达到545%。也就是说,理论上DeepSeek每日净赚474955美元(折合人民币约346万元)。

但实际情况是,DeepSeek的收入大幅下降。由于DeepSeek-V3定价低于R1;网页端和应用程序免费,只有部分服务有收入;非高峰时段还有夜间折扣,使得其实际收入并没有这么高。

此外,DeepSeek还公开了DeepSeek-V3/R1推理系统概述:为了达到推理更高的吞吐量和更低的延迟,研究人员采用了跨节点的专家咨询(EP),并且利用EP增大batch size、将通信延迟隐藏在计算之后、执行负载均衡,应对EP的系统复杂性挑战。

发布一小时,GitHub Star数已超过5600。

评论区的网友频频cue OpenAI,直呼“被抢劫”了!

还有网友以OpenAI的定价帮DeepSeek算账:

GitHub地址:

https://github.com/deepseek-ai/open-infra-index/blob/main/202502OpenSourceWeek/day_6_one_more_thing_deepseekV3R1_inference_system_overview.md

一、每日总成本为87072美元,利润率理论上最高545%

DeepSeek V3和R1的所有服务均使用H800 GPU,使用和训练一致的精度,即矩阵计算和dispatch传输采用和训练一致的FP8格式,core-attention计算和combine传输采用和训练一致的BF16,最大程度保证了服务效果。

此外,由于白天的高服务负载和晚上的低负载,DeepSeek在白天高峰时段跨所有节点部署推理服务。在低负载的夜间时段减少了推理节点,并将资源分配给研究和训练。

在过去的24小时内(2月27日24点到2月28日24点),V3和R1推理服务的合并峰值节点占用率达到278,平均占用率为226.75个节点(每个节点包含8个H800 GPU)。假设一个H800 GPU的租赁成本为每小时2美元,则每日总成本为87072美元。

▲推理服务的H800节点计数

在24小时统计周期内(2月27日24点到2月28日24点),V3和R1:

总输入Token 608B,其中342B Token(56.3%)命中KVCache硬盘缓存。

总输出Token 168B,平均输出速度为每秒20-22 tps,每个输出Token的平均kvcache长度为4989个Token。

每个H800节点在prefill期间提供约73.7k token/s输入(包括缓存命中)的平均吞吐量,或在解码期间提供约14.8k token/s输出。

以上统计数据包括所有来自web、APP、API的用户请求。

如果所有Token都以DeepSeek-R1的价格计费,每日总收入将为562027美元,成本利润率为545%。

*R1的定价:0.14美元输入Token(缓存命中),0.55美元输入令牌(缓存未命中),2.19美元输出令牌。

然而,DeepSeek的实际收入并没有这么多,其原因是DeepSeek-V3的定价明显低于R1;网页端和应用程序免费,所有只有一部分服务被货币化;夜间折扣在非高峰时段自动适用。

▲成本和理论收入

二、EP增加系统复杂性,三大策略应对

DeepSeek的解决方案采用了跨节点的专家并行(EP)。

首先,EP显著扩展了批处理大小,增强了GPU矩阵计算效率并提高了吞吐量;其次,EP将专家分布在不同GPU上,每个GPU只处理专家的一小部分(减少内存访问需求),从而降低延迟。

然而,EP在两个方面增加了系统复杂性:EP引入跨节点的传输,为了优化吞吐,需要设计合适的计算流程使得传输和计算可以同步进行;EP涉及多个节点,因此天然需要Data Parallelism(DP),不同的DP之间需要进行负载均衡。

DeepSeek通过三种方式应对了这些挑战:

利用EP增大batch size、将通信延迟隐藏在计算之后、执行负载均衡。

1、大规模跨节点专家并行(EP)

由于DeepSeek-V3/R1的专家数量众多,并且每层256个专家中仅激活其中8个。模型的高度稀疏性决定了其必须采用很大的overall batch size,才能给每个专家提供足够的expert batch size,从而实现更大的吞吐、更低的延时。需要大规模跨节点专家并行(Expert Parallelism/EP)。

DeepSeek采用多机多卡间的专家并行策略来达到以下目的:

Prefill:路由专家EP32、MLA和共享专家DP32,一个部署单元是4节点,32个冗余路由专家,每张卡9个路由专家和1个共享专家

Decode:路由专家EP144、MLA和共享专家DP144,一个部署单元是18节点,32个冗余路由专家,每张卡2个路由专家和1个共享专家

2、计算-通信重叠

多机多卡的专家并行会引入比较大的通信开销,所以使用了双batch重叠来掩盖通信开销,提高整体吞吐。

对于prefill阶段,两个batch的计算和通信交错进行,一个batch在进行计算的时候可以去掩盖另一个batch的通信开销。

▲预充阶段的通信-计算重叠

对于decode阶段,不同阶段的执行时间有所差别,所以DeepSeek把attention部分拆成了两个stage,共计5个stage的流水线来实现计算和通信的重叠。

▲解码阶段的通信-计算重叠

3、实现最佳负载均衡

由于采用了很大规模的并行(包括数据并行和专家并行),如果某个GPU的计算或通信负载过重,将成为性能瓶颈,拖慢整个系统;同时其他GPU因为等待而空转,造成整体利用率下降。因此我们需要尽可能地为每个 GPU 分配均衡的计算负载、通信负载。

Prefill Load Balancer的核心问题:不同数据并行(DP)实例上的请求个数、长度不同,导致core-attention计算量、dispatch发送量也不同。

其优化目标是,各GPU的计算量尽量相同(core-attention计算负载均衡)、输入的token数量也尽量相同(dispatch发送量负载均衡),避免部分GPU处理时间过长。

Decode Load Balancer的关键问题是,不同数据并行(DP)实例上的请求数量、长度不同,导致core-attention计算量(与KVCache占用量相关)、dispatch发送量不同。

其优化目标是,各GPU的KVCache占用量尽量相同(core-attention计算负载均衡)、请求数量尽量相同(dispatch发送量负载均衡)。

专家并行负载均衡器的核心问题:对于给定MoE模型,存在一些天然的高负载专家(expert),导致不同GPU的专家计算负载不均衡。

其优化目标是,每个GPU上的专家计算量均衡(即最小化所有GPU的dispatch接收量的最大值)。

▲DeepSeek在线推理系统图