- +1
545%!DeepSeek公布理論成本利潤率
過去一周,DeepSeek連續(xù)開放了5個Infra項目的源代碼,正當大家以為這場開源盛宴已經(jīng)結(jié)束。3月1日,DeepSeek的彩蛋來了!開源周Day6,DeepSeek官方團隊在開發(fā)者社區(qū)Github和知乎給出了DeepSeek-V3/R1推理系統(tǒng)的技術(shù)解讀。通過優(yōu)化吞吐和延遲,DeepSeek理論上一天的總收入達到了562027美元,成本利潤率為545%。
敏銳的網(wǎng)友——如MenloVentures投資人Deedy翻譯了這意味著什么:“理論ARR(年收入)2億美元、利潤率超過500%,這樣的商業(yè)效率理應是一家值100億美元的公司。”

從2024年5月發(fā)布DeepSeekV2以來,DeepSeek模型服務就以“價格屠夫”示眾,總是比行業(yè)其他模型便宜1/10左右,質(zhì)疑DeepSeek虧本打價格戰(zhàn)的聲音也一直有。
通過這5天開放源代碼以及今天的推理系統(tǒng)概述,這一疑慮也被打消,可以預見,模型推理價格越來越負擔得起,且服務提供方也有的賺。這一事件的影響也可以通過社交平臺網(wǎng)友展現(xiàn)出刷屏的驚喜得以一窺,“成本利潤率545%,等于說你是在告訴我,我被Open AI搶劫了?開源周Day7的彩蛋是 AGI?”
但更大的信號指向生態(tài)伙伴,部署DeepSeek有的賺。
一位AI領(lǐng)域的投資人表示,“官方技術(shù)解讀表明,云平臺和上下游通過部署DeepSeek的服務,理論上收益和利潤率可以達到很高”。無論是對于提供在線推理、還是私有化部署等服務的供應商,都是利好。
在這波DeepSeek熱中受益的云平臺硅基流動創(chuàng)始人袁進輝也在第一時間發(fā)表了自己的感受,“DeepSeek官方披露大規(guī)模部署成本和收益,又一次顛覆了很多人認知。”但需要時間適配DeepSeek V3/R1模型架構(gòu),他表示“現(xiàn)在很多供應商還做不到這個水平,主要是V3/R1架構(gòu)和其它主流模型差別太大了,由大量小專家組成,導致瞄準其它主流模型結(jié)構(gòu)開發(fā)的系統(tǒng)都不再有效,必須按照DeepSeek報告描述的方法才能達到最好的效率,而開發(fā)這樣的系統(tǒng)難度很高,需要時間”。
袁進輝進一步指出現(xiàn)在復現(xiàn)這樣的推理服務的難度以及DeepSeek可能的戰(zhàn)略思考,“幸好這周DeepSeek五連發(fā)已經(jīng)把主要模塊開源出來了,降低了社區(qū)復現(xiàn)的難度。這些成果充分體現(xiàn)了DeepSeek團隊第一性原理的思考方式和強悍的意志,他們應該是首先是基于某些原因想到了用這樣的模型結(jié)構(gòu),然后發(fā)現(xiàn)這樣的結(jié)構(gòu)無論是訓練還是推理,要做好都有非常大的工程挑戰(zhàn),不過這些問題在他們工程團隊來說并不是搞不定的,關(guān)鍵是花那么大力氣做完是否有大的收益呢,在最終結(jié)果出來前,誰也說不準,他們還是賭了,結(jié)果是賭對了。也可能是反過來的,基于系統(tǒng)的出發(fā)點設(shè)計了這樣一個全新的模型結(jié)構(gòu)。”
在DeepSeek官方報告中也提示了DeepSeek-V3/R1推理系統(tǒng)的優(yōu)化目標是:更大的吞吐,更低的延遲。配合技術(shù)解讀,DeepSeek開源周放出的5個代碼庫帶來的影響力才剛剛開始。
《DeepSeek-V3 / R1 推理系統(tǒng)概覽全文
DeepSeek-V3/R1推理系統(tǒng)的優(yōu)化目標是:更大的吞吐,更低的延遲。
為了實現(xiàn)這兩個目標,我們的方案是使用大規(guī)模跨節(jié)點專家并行(Expert Parallelism / EP)。首先EP使得batch size大大增加,從而提高GPU矩陣乘法的效率,提高吞吐。其次EP使得專家分散在不同的 GPU上,每個GPU只需要計算很少的專家(因此更少的訪存需求),從而降低延遲。
但EP同時也增加了系統(tǒng)的復雜性。復雜性主要體現(xiàn)在兩個方面:
EP引入跨節(jié)點的傳輸。為了優(yōu)化吞吐,需要設(shè)計合適的計算流程使得傳輸和計算可以同步進行。
EP涉及多個節(jié)點,因此天然需要Data Parallelism(DP),不同的DP之間需要進行負載均衡。
因此,本文的主要內(nèi)容是如何使用EP增大batch size,如何隱藏傳輸?shù)暮臅r,如何進行負載均衡。
1、大規(guī)模跨節(jié)點專家并行(Expert Parallelism / EP)
由于DeepSeek-V3/R1的專家數(shù)量眾多,并且每層256個專家中僅激活其中8個。模型的高度稀疏性決定了我們必須采用很大的overall batch size,才能給每個專家提供足夠的expert batch size,從而實現(xiàn)更大的吞吐、更低的延時。需要大規(guī)模跨節(jié)點專家并行(Expert Parallelism / EP)。
我們采用多機多卡間的專家并行策略來達到以下目的:
Prefill:路由專家EP32、MLA和共享專家DP32,一個部署單元是4節(jié)點,32個冗余路由專家,每張卡9個路由專家和1個共享專家
Decode:路由專家EP144、MLA和共享專家DP144,一個部署單元是18節(jié)點,32個冗余路由專家,每張卡2個路由專家和1個共享專家
2、計算通信重疊
多機多卡的專家并行會引入比較大的通信開銷,所以我們使用了雙 batch重疊來掩蓋通信開銷,提高整體吞吐。
對于prefill階段,兩個batch的計算和通信交錯進行,一個batch在進行計算的時候可以去掩蓋另一個batch的通信開銷;
對于decode階段,不同階段的執(zhí)行時間有所差別,所以我們把attention部分拆成了兩個stage,共計 5 個stage的流水線來實現(xiàn)計算和通信的重疊。
關(guān)于更多雙batch重疊的細節(jié),可以參考我們的profiling數(shù)據(jù)的 GitHub倉庫:https://github.com/deepseek-ai/profile-data。
3、盡可能地負載均衡
由于采用了很大規(guī)模的并行(包括數(shù)據(jù)并行和專家并行),如果某個GPU的計算或通信負載過重,將成為性能瓶頸,拖慢整個系統(tǒng);同時其他GPU因為等待而空轉(zhuǎn),造成整體利用率下降。因此我們需要盡可能地為每個GPU分配均衡的計算負載、通信負載。
Prefill Load Balancer
核心問題:不同數(shù)據(jù)并行(DP)實例上的請求個數(shù)、長度不同,導致 core-attention 計算量、dispatch發(fā)送量也不同
優(yōu)化目標:各GPU的計算量盡量相同(core-attention 計算負載均衡)、輸入的token數(shù)量也盡量相同(dispatch發(fā)送量負載均衡),避免部分GPU處理時間過長
Decode Load Balancer
核心問題:不同數(shù)據(jù)并行(DP)實例上的請求數(shù)量、長度不同,導致core-attention計算量(與KVCache占用量相關(guān))、dispatch發(fā)送量不同
優(yōu)化目標:各GPU的KVCache占用量盡量相同(core-attention計算負載均衡)、請求數(shù)量盡量相同(dispatch 發(fā)送量負載均衡)
Expert-Parallel Load Balancer
核心問題:對于給定 、MoE模型,存在一些天然的高負載專家(expert),導致不同GPU的專家計算負載不均衡
優(yōu)化目標:每個GPU上的專家計算量均衡(即最小化所有 GPU 的dispatch接收量的最大值)
4、參考架構(gòu)圖

5、線上系統(tǒng)的實際統(tǒng)計數(shù)據(jù)
DeepSeek V3和R1的所有服務均使用H800 GPU,使用和訓練一致的精度,即矩陣計算和dispatch傳輸采用和訓練一致的FP8格式,core-attention計算和combine傳輸采用和訓練一致的BF16,最大程度保證了服務效果。
另外,由于白天的服務負荷高,晚上的服務負荷低,因此我們實現(xiàn)了一套機制,在白天負荷高的時候,用所有節(jié)點部署推理服務。晚上負荷低的時候,減少推理節(jié)點,以用來做研究和訓練。在最近的24小時里(北京時間 2025/02/27 12:00 至 2025/02/28 12:00),DeepSeek V3和R1推理服務占用節(jié)點總和,峰值占用為278個節(jié)點,平均占用226.75個節(jié)點(每個節(jié)點為8個H800 GPU)。假定GPU租賃成本為2美元/小時,總成本為 $87072/天。
在24小時統(tǒng)計時段內(nèi),DeepSeek V3和R1:
輸入token總數(shù)為608B,其中342B tokens(56.3%)命中 KVCache 硬盤緩存。
輸出token總數(shù)為168B。平均輸出速率為20~22tps,平均每輸出一個token的KVCache長度是4989。
平均每臺H800的吞吐量為:對于prefill任務,輸入吞吐約 73.7k tokens/s(含緩存命中);對于decode任務,輸出吞吐約 14.8k tokens/s。

以上統(tǒng)計包括了網(wǎng)頁、APP 和 API 的所有負載。如果所有tokens全部按照DeepSeek R1的定價 (注:DeepSeek R1 的定價:$0.14 / 百萬輸入tokens (緩存命中),$0.55 / 百萬輸入tokens (緩存未命中),$2.19 / 百萬輸出 tokens;當然我們實際上沒有這么多收入,因為V3的定價更低,同時收費服務只占了一部分,另外夜間還會有折扣)計算,理論上一天的總收入為562027美元,成本利潤率545%。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯(lián)網(wǎng)新聞信息服務許可證:31120170006
增值電信業(yè)務經(jīng)營許可證:滬B2-2017116
? 2014-2025 上海東方報業(yè)有限公司