欧美aaa级-男女高潮激烈免费观看-黑人性生活视频-精品人妻无码一区二区三区蜜桃一-亚洲第一成网站-国产一区中文字幕-国产精品videosex极品-天天摸天天射-国产精品特黄aaaa片在线观看-天天干网-免费观看黄网站-国产无遮挡a片无码免费-a天堂在线-亚洲免费色-中文字幕乱偷无码av先锋-中文天堂最新版资源www官网-国四虎影永久去哪里了-五月视频-91黄色免费网站-亚洲精品一区二区三区影院

你的位置:首頁 > 互連技術 > 正文

DeepSeek發(fā)布DualPath:雙路徑加載機制徹底打破大模型KV緩存I/O瓶頸

發(fā)布時間:2026-02-28 來源:轉載 責任編輯:lily

【導讀】在大模型智能體(Agent)應用日益普及的今天,多輪交互導致的超長上下文累積使得KV緩存的加載效率取代計算能力,成為制約推理性能的新瓶頸。傳統(tǒng)架構中“存儲至預填充引擎”的單一路徑設計,導致了存儲網(wǎng)卡帶寬在預填充端飽和而在解碼端閑置的嚴重資源失衡。針對這一痛點,DeepSeek于2月27日重磅推出了名為DualPath的全新推理系統(tǒng)方案。該方案突破性地在存儲與解碼引擎之間開辟了直通新通道,利用RDMA技術實現(xiàn)KV緩存的雙路徑動態(tài)加載與負載均衡。作為由北大實習生吳永彤主導的最新成果,DualPath不僅在理論上消除了KV緩存的I/O開銷,更在千卡集群的實測中將離線與在線吞吐量提升了近兩倍,為大模型在智能體場景下的高效落地提供了極具價值的架構革新思路。


DeepSeek又找到突破大模型推理瓶頸的新方法了!智東西2月27日報道,昨天,DeepSeek發(fā)布了一項名為DualPath的全新推理系統(tǒng)方案,直指當前大語言模型在智能體應用場景下遭遇的短板——KV緩存存儲I/O瓶頸。該方案通過引入雙路徑加載機制,顯著提升系統(tǒng)吞吐量,基本消除了KV緩存的I/O開銷。


DualPath的核心創(chuàng)新在于開辟了一條從存儲直通解碼引擎的新通道。KV緩存不再僅由預填充引擎加載,而是可以加載至解碼引擎,再通過計算網(wǎng)絡中的RDMA高效傳輸至預填充端。這一設計不僅緩解了存儲端的壓力,還避免了網(wǎng)絡擁塞,確保延遲敏感型任務不受干擾。與全局調度器協(xié)同后,DualPath實現(xiàn)了動態(tài)平衡兩端負載,進一步提升資源利用率。在真實智能體工作負載測試中,DualPath將離線推理吞吐量提升最高達1.87倍,在線服務吞吐量平均提升1.96倍。


在大規(guī)模可擴展性方面,DualPath系統(tǒng)在最多1152張GPU上進行了驗證。離線推理從2P4D(2K智能體)擴展到48P96D(48K智能體)實現(xiàn)近線性擴展,任務完成時間基本保持一致。


值得一提的是,與之前DeepSeek發(fā)表的許多研究論文類似,這篇論文的第一作者吳永彤同樣是DeepSeek的實習生。吳永彤目前在北京大學攻讀博士學位,師從金鑫教授,主要研究大模型基礎設施相關課題,自2025年8月以來便在DeepSeek系統(tǒng)組工作,曾參與DeepSeek-V3.2的研究。


01.智能體I/O瓶頸凸顯傳統(tǒng)設計成本高昂

隨著智能體應用普及,多輪推理已成常態(tài)。智能體通過工具與外部環(huán)境進行數(shù)十甚至數(shù)百輪交互,上下文跨輪累積到極長長度。由于多輪、短追加的特性,KV緩存命中率高達95%以上,加載效率取代計算成為性能主導因素。現(xiàn)有系統(tǒng)采用分層預填充、預填充-解碼分離(PD分離)和外部KV緩存存儲架構。但問題在于:預填充引擎存儲網(wǎng)卡帶寬持續(xù)飽和,而解碼引擎存儲網(wǎng)卡帶寬大量閑置。這種不平衡暴露了根本性低效——存儲網(wǎng)絡帶寬利用不均,而單純增加預填充端帶寬成本高昂。


DualPath的提出正是為了解決上述問題,其核心洞察在于打破“KV緩存加載必須以預填充為中心”的傳統(tǒng)設計。現(xiàn)有系統(tǒng)僅通過存儲到預填充引擎的單一路徑加載,導致預填充端帶寬飽和而解碼端帶寬閑置。DualPath則增加了存儲到解碼路徑,將KV緩存先加載至空閑的解碼引擎,再通過RDMA高效傳輸給預填充引擎。這一模式聚合了所有存儲網(wǎng)卡帶寬,重新分配網(wǎng)絡負載,從根本上緩解預填充端的I/O瓶頸。


不過,該設計仍然面臨兩大挑戰(zhàn):首先,引入額外的加載路徑會產(chǎn)生復雜的流量模式,并可能與模型執(zhí)行中的集體通信原語產(chǎn)生潛在干擾,若管理不當會降低整體性能。其次,系統(tǒng)必須在動態(tài)和異構的工作負載下在線決定使用哪條加載路徑,并同時確保GPU和網(wǎng)卡之間的負載均衡。


02.三大核心組件打造DualPath新組件并未引入瓶頸

那么,DeepSeek究竟是如何解決這些挑戰(zhàn)的呢?DualPath使用了兩項廣泛使用的技術:(1)PD分離,將提示詞和解碼處理分開以提高效率。(1)分層預填充,避免了預填充引擎上的HBM瓶頸,并提高了GPU利用率。而DualPath主要由三大核心組件構成。


推理引擎是基礎執(zhí)行單元,每個引擎管理一個GPU,并明確區(qū)分為專司預填充計算的預填充引擎和負責解碼生成的解碼引擎。


流量管理器內嵌于每個引擎,統(tǒng)籌所有數(shù)據(jù)移動:包括主機與設備間的內存拷貝、預填充與解碼引擎之間的KV緩存?zhèn)鬏敚约巴ㄟ^存儲網(wǎng)卡進行的KV緩存持久化讀寫。其采用以計算網(wǎng)卡為中心的流量管理策略,確保KV緩存流量不會干擾延遲敏感的模型集體通信。


請求調度器作為中央決策單元,接收客戶端請求并智能分發(fā)給各引擎,同時動態(tài)決策每條請求采用傳統(tǒng)存儲到預填充路徑還是新型存儲到解碼路徑,實現(xiàn)雙路徑間的流量均衡與全局負載優(yōu)化。


在具體實現(xiàn)上,DualPath在每個預填充引擎和解碼引擎上預留少量DRAM作為緩沖區(qū)。對于預填充端讀路徑,命中token的KV緩存首先從存儲讀入預填充引擎緩沖區(qū),然后按層流式傳入預填充引擎的HBM,與未命中token的KV計算過程重疊執(zhí)行。


隨后,完整的提示詞KV會被傳輸至解碼引擎緩沖區(qū),供解碼階段使用。對于解碼端讀路徑,命中KV首先加載到解碼引擎緩沖區(qū),在預填充引擎執(zhí)行預填充時逐層通過RDMA讀取,同時與計算重疊。未命中KV計算完成后回傳至解碼引擎,與命中KV合并形成完整提示詞緩存。無論哪條路徑,數(shù)據(jù)傳輸都采用分層流式方式,以緩解HBM容量壓力并實現(xiàn)計算與通信的重疊。


解碼階段開始前,解碼引擎將完整KV從緩沖區(qū)傳入HBM,完成主機到設備拷貝后釋放CPU內存;在生成過程中,每當累積滿一個固定大小的token塊,就立即持久化到存儲。為了驗證該架構不會引入新的瓶頸,論文對計算網(wǎng)卡帶寬和DRAM帶寬進行了系統(tǒng)性分析。


通過建立每對預填充引擎—解碼引擎之間的流量模型,并假設負載均衡與網(wǎng)絡無擁塞,作者推導出在一定的P/D(預填充節(jié)點與解碼節(jié)點數(shù)量之比)范圍內,計算網(wǎng)卡、PCIe以及DRAM均不會成為瓶頸。在典型配置(例如每節(jié)點8個GPU、存儲帶寬遠小于計算帶寬)下,可行的P/D區(qū)間覆蓋大多數(shù)實際部署比例,說明系統(tǒng)能夠在充分利用所有存儲網(wǎng)卡帶寬的同時,保持計算與內存資源的穩(wěn)定運行。


03.系統(tǒng)落地仍面臨三大挑戰(zhàn)采用計算網(wǎng)卡為中心的流量管理

然而,在真實系統(tǒng)中落地雙路徑架構仍面臨三項核心挑戰(zhàn)。首先是細粒度數(shù)據(jù)傳輸。分層執(zhí)行緩解了HBM容量壓力,但也將KV拆分為大量小塊,需要在存儲、主機DRAM和GPUHBM之間高效搬運,同時控制軟件與硬件開銷。


其次是流量隔離。新增的KV傳輸可能干擾模型執(zhí)行中的延遲敏感型集體通信(如AllToAll、ReduceScatter/AllGather),若缺乏隔離機制,將直接推高端到端推理延遲。


最后是動態(tài)負載均衡。由于系統(tǒng)存在兩條讀取路徑,調度器必須結合磁盤隊列長度、GPU負載和請求特征動態(tài)決策,否則容易再次形成局部瓶頸。


為避免KV傳輸干擾模型通信,系統(tǒng)采用以計算網(wǎng)卡為中心的流量管理機制。所有進出GPU的流量,包括H2D/D2H拷貝,統(tǒng)一經(jīng)由與GPU配對的計算網(wǎng)卡,并通過GPUDirectRDMA完成傳輸,使全部數(shù)據(jù)流匯聚到計算網(wǎng)絡,從而利用硬件QoS能力進行優(yōu)先級隔離。


在基于InfiniBand的部署中,模型推理通信被映射到高優(yōu)先級虛擬通道,KV傳輸映射到低優(yōu)先級通道,并通過加權輪詢保障前者帶寬。這樣既保護了延遲敏感通信,又允許KV流量利用空閑帶寬。實驗還表明,在大量小塊場景下,其更適合細粒度傳輸。


在調度層面,系統(tǒng)采用兩級自適應機制。引擎間調度為請求選擇預填充引擎—解碼引擎對并確定讀取路徑,通過token數(shù)量與磁盤隊列長度實現(xiàn)負載均衡;解碼引擎調度分為跨組與組內兩階段,在平衡總token數(shù)的同時考慮HBM容量約束,避免資源過載。


引擎內調度主要作用于預填充引擎,通過估計注意力層計算量設定“計算配額”,以FIFO方式組批,必要時對請求分塊,使各GPU計算時間趨于一致,減少同步等待。


總體而言,雙路徑加載聚合存儲帶寬,理論分析保證系統(tǒng)無新增瓶頸,計算網(wǎng)卡中心化設計實現(xiàn)嚴格流量隔離,自適應調度則維持負載均衡與低延遲,共同構成一個高吞吐、可擴展的推理架構。


04.實驗證明KV緩存I/O開銷已基本消除在千卡集群上實現(xiàn)線性擴展

為驗證DualPath帶來的性能提升,DeepSeek在一個由InfiniBand互連的GPU服務器集群上進行實驗,評估了三個模型的表現(xiàn):DeepSeek V3.2 660B(記為DS 660B)、DS 660B的27B縮小版本(記為DS 27B)以及作為稠密模型代表的Qwen2.5-32B(記為Qwen 32B)。


實驗結果顯示,DualPath在更大的批次規(guī)模和更長的最大有效上下文長度下獲益更加顯著。在DS 660B上,DualPath相較于DeepSeek內部的基線推理框架最高實現(xiàn)1.87倍加速,且性能接近假設零I/O開銷的理論性能上限,說明KV緩存I/O開銷已基本被消除。


在DS 27B上,DualPath相較于DeepSeek內部的基線推理框架最高提升1.78倍。在改變追加長度和生成長度時,DualPath在短token場景下優(yōu)勢更明顯。隨著追加長度增加,GPU計算壓力增大,而生成長度增加則因預填充間隔變長,降低了KV緩存加載壓力。圖9顯示,隨著追加長度增長,未采用DualPath的推理引擎表現(xiàn)和DualPath的性能越發(fā)接近,表明系統(tǒng)瓶頸逐漸轉向GPU計算。在不同追加規(guī)模下,DualPath相較于基線實現(xiàn)1.82至1.99倍加速,生成長度擴展趨勢類似。在不同預填充-解碼比例下,DualPath均顯著優(yōu)于基線,平均實現(xiàn)1.64倍加速,最高達2.46倍。基線推理引擎只能使用預填充節(jié)點的存儲帶寬,而DualPath能夠利用所有節(jié)點的帶寬,驗證了在智能體場景下存儲帶寬是主要瓶頸。在在線服務評估中,DualPath在智能體請求到達速率上顯著優(yōu)于基線,在DS27B和DS660B上分別達到1.67倍和2.25倍提升。


在負載均衡方面,DualPath顯著改善了存儲網(wǎng)卡和注意力層執(zhí)行時間的均衡性。相較于輪詢調度,調度算法將存儲網(wǎng)卡負載均衡指標從1.53優(yōu)化至1.18。同時,在任務前5%執(zhí)行階段,將注意力層最大/平均執(zhí)行時間比控制在1.06以內,減少了GPU空閑氣泡。在大規(guī)模可擴展性方面,DualPath系統(tǒng)在最多1152張GPU上進行了驗證。離線推理從2P4D(2K智能體)擴展到48P96D(48K智能體)實現(xiàn)近線性擴展,任務完成時間基本保持一致。


在線服務中,44P88D配置在保持相似延遲的同時,將吞吐量提升22倍。所有實驗中調度器CPU占用低于10核,表明其不是性能瓶頸。大規(guī)模部署不僅減少資源碎片化,還為并行度和P/D比例調優(yōu)提供更大靈活性,同時在突發(fā)在線請求場景下提供更多調度空間以緩解排隊延遲。


總結

DeepSeek DualPath系統(tǒng)的成功驗證表明,打破“以預填充為中心”的傳統(tǒng)數(shù)據(jù)加載范式,是解決智能體場景下KV緩存I/O瓶頸的關鍵所在。通過構建存儲到解碼的第二路徑,并結合以計算網(wǎng)卡為中心的流量管理與自適應調度機制,DualPath不僅實現(xiàn)了存儲帶寬的全局聚合與高效利用,更在1152張GPU的大規(guī)模集群中展現(xiàn)了近線性的擴展能力,將離線推理吞吐量最高提升1.87倍,在線服務吞吐量平均提升1.96倍,基本抹平了I/O開銷對系統(tǒng)性能的限制。盡管未來在應對高度動態(tài)的工作負載時,仍需探索更靈活的并行度與P/D比例自適應調整機制,但DualPath無疑為業(yè)界提供了一套高吞吐、低延遲且可擴展的推理新標準,標志著大模型基礎設施正式邁入“雙路徑”協(xié)同優(yōu)化的新階段。

3-958x200_20251021044704_586_20260213110352_663_20260218181015_530.png

特別推薦
技術文章更多>>
技術白皮書下載更多>>
熱門搜索

關閉

?

關閉