漂亮人妇荡欲在线观看,女人私密部位高清图片,特黄特色视频免费大片,舌头伸进去添的我乱叫,大胸美女揉胸,激情久久综合网,日本xx片

華為+DeepSeek,推理性能創(chuàng)新高!技術報告也公布出來了

部署超大規(guī)模MoE這件事,國產(chǎn)芯片的推理性能,已經(jīng)再創(chuàng)新高了——

不僅是“英偉達含量為0”這么簡單,更是性能全面超越英偉達Hopper架構!

而做到這一點的,正是華為昇騰;具體而言,共包含兩個產(chǎn)品:

CloudMatrix 384超節(jié)點

部署DeepSeek V3/R1,在50ms時延約束下單卡Decode吞吐突破1920 Tokens/s

Atlas 800I A2推理服務器

部署DeepSeek V3/R1,在100ms時延約束下單卡吞吐達到808 Tokens/s,可支持靈活的分布式部署

之所以能夠這般,是因為華為昇騰所采取的“以數(shù)學補物理”——這種通過數(shù)學理論、工具、算法和建模等方式,來彌補硬件和工藝的局限性,實現(xiàn)最大化發(fā)揮芯片和系統(tǒng)能力效果。

華為昇騰還不只是“官宣”一下而已,后面更會是全面開源

不僅已經(jīng)將昇騰在超大規(guī)模MoE模型推理部署的技術報告分享了出來,在一個月時間內(nèi),還會把實現(xiàn)這些核心技術的相關代碼也都會陸續(xù)開源出來。

那么接下來,我們就來深入了解一下華為昇騰背后的技術實力。

在華為昇騰上推理DeepSeek

在深挖華為昇騰背后技術創(chuàng)新之前,我們且需了解一下為什么要這么做。

從2017年Google提出的Transformer架構,到2025年DeepSeek V3/R1的爆紅,大語言模型的重心正在從訓練開發(fā)轉向推理應用落地。

推理能力不僅是大模型能力的“試金石”,各大企業(yè)已從 “拼模型參數(shù)” 轉向 “拼推理效率”:

誰能讓大模型在實際應用中跑得更快、更穩(wěn)、更省資源,誰就能在商業(yè)化浪潮中搶占先機。

然而,以6710億參數(shù)的DeepSeek V3為例,這類超大規(guī)模MoE模型雖然強大,卻給硬件帶來三大 “成長煩惱”:

內(nèi)存壓力山大

一個模型包含257個專家,每個專家 “體重” 2.5G,普通64GB內(nèi)存的AI硬件根本 “扛不動”,必須依賴集群協(xié)作。

通信開銷爆炸

專家分布在不同芯片上,數(shù)據(jù)傳輸耗時甚至超過計算時間,就像團隊成員頻繁開會溝通,效率大打折扣。

架構創(chuàng)新的 “甜蜜負擔”

例如 “多頭隱式注意力機制(MLA)” 雖然壓縮了數(shù)據(jù)空間,卻導致中間變量激增,對芯片的計算能力提出更高要求。

面對這些挑戰(zhàn),華為團隊從算子、模型和框架三方面入手,基于昇騰硬件特性,開發(fā)了一整套面向集群的大規(guī)模專家并行解決方案。

在硬件部署上,華為團隊根據(jù)不同硬件配置——CloudMatrix 384超節(jié)點和Atlas 800I A2推理服務器,針對性地采取了不同的部署優(yōu)化策略。為解耦Prefill和Decode階段的時延約束,昇騰采用PD分離部署方式。

在框架側,昇騰基于vLLM框架,適配DP和EP等多種并行策略,通過Prefill調(diào)度分桶、靈衢互聯(lián)與分層傳輸?shù)燃夹g來降低調(diào)度開銷,優(yōu)化請求下發(fā)、調(diào)度策略等環(huán)節(jié),提升系統(tǒng)性能。

在模型方面,昇騰采用A8W8C16量化策略,其中A8W8使用INT8,C16使用BF16,并針對不同機型進行差異化部署。

針對CloudMatrix 384超節(jié)點,其強大的組網(wǎng)能力大幅降低了通信耗時,釋放了昇騰芯片的算力。

團隊采用大規(guī)模EP并行部署,Prefill使用16卡,Decode使用144卡,其中128卡部署路由專家,16卡部署共享專家,MLA部分采用DP部署。

盡管存在時延約束、帶寬搶占、調(diào)度開銷、負載不均等因素影響,最終在50ms時延下,單卡decode吞吐達到1920 Token/s。

針對機群規(guī)模較小但部署更加靈活的Atlas 800I A2服務器,華為團隊采用多節(jié)點互聯(lián)的方式進行部署。

作為示例,華為團隊使用2機16卡進行Prefill,4機32卡進行Decode,每卡部署8個路由專家和1個共享專家,MLA部分采用DP并行,并針對性地使用在真實負載下性能更優(yōu)的AllGather/ReduceScatter的通信方案。

通過各種策略優(yōu)化,在100ms時延下,單卡吞吐達到808 Tokens/s。

還有更多優(yōu)化技術

推理框架優(yōu)化方面,針對高并發(fā)場景下單點API Server這一性能瓶頸,華為團隊設計了API Server橫向擴展方案,采用水平擴展技術提升框架的請求響應能力,顯著降低用戶請求延遲并提高整體服務吞吐量(QPS)。

針對MoE模型中的負載不均問題,基于動態(tài)調(diào)整專家部署與縮小通信域、熱專家冗余部署、實時調(diào)度與動態(tài)監(jiān)控機制等核心技術,降低顯存占用的同時實現(xiàn)動態(tài)負載均衡。

投機推理技術的工程化應用中,如何將其從小批量低時延場景擴展至高吞吐量場景,是行業(yè)面臨的共性難題。

華為團隊基于昇騰芯片高計算帶寬比的硬件特性,提出FusionSpec投機推理引擎,針對性優(yōu)化多Token預測(MTP)場景下的推理性能:

流程重構

將投機模型后置於主體模型,直接復用主體模型的輸出結果與控制參數(shù),大幅減少框架耗時,完美適配參數(shù)-數(shù)據(jù)分離(PD 分離)的分布式部署架構;

輕量步間優(yōu)化

對投機推理場景中的框架和算子優(yōu)化實現(xiàn)了輕量步間準備,適配多核并行的全異步框架。

通信優(yōu)化方面,華為昇騰也有三大妙招。

首先,針對主流張量并行(TP)方案中AllReduce通信的固有缺陷(通信次數(shù)多、數(shù)據(jù)量大、冗余計算顯著),華為團隊推出FlashComm通信方案,通過集合通信邏輯重構與算子位置編排,實現(xiàn)低比特、低維度數(shù)據(jù)通信,在降低通信時延的同時消除冗余計算,最終實現(xiàn)25%通信量的降低和10%推理性能的提升。

其次,在FlashComm基礎上,團隊進一步提出層內(nèi)并行轉換方案,針對Prefill階段的MLA層,通過張量并行(TP)與數(shù)據(jù)并行(DP)的靈活轉換,消除節(jié)點內(nèi)卡間求和操作,并利用網(wǎng)絡低維特性與量化技術壓縮通信數(shù)據(jù)量,顯著降低跨卡通信時延,為大模型分布式推理提供更高效的通信支撐。

第三,通信方面的優(yōu)化還有一個并發(fā)機制的深度挖掘,包括:

計算通信并發(fā)

通過Gate函數(shù)計算與AllGather通信的解耦,結合共享專家的數(shù)據(jù)并行(DP)策略,利用昇騰多流機制實現(xiàn)計算與通信的并發(fā)執(zhí)行,最大化硬件利用率;

通信通信并發(fā)

針對DeepSeek模型的量化場景,將激活值與scale的傳輸任務并行處理,在不增加帶寬壓力的前提下掩蓋小數(shù)據(jù)量通信的啟動開銷;

通信和權重預并發(fā)

利用通信階段HBM帶寬低占用特性,提前將后續(xù)算子權重預取至緩存,降低計算階段的數(shù)據(jù)搬運開銷,實測MLA層計算性能提升10%。

最后,就是在算子方面的優(yōu)化了。華為團隊通過以數(shù)學補物理,發(fā)展了一系列的優(yōu)化技術。

針對MLA算子中間變量膨脹與計算量激增的挑戰(zhàn),團隊開展硬件親和性優(yōu)化:

算法重構:提出AMLA算法,通過二進制編碼與存內(nèi)計算,將乘性計算轉換為加性等價形式,直接在全局內(nèi)存完成輸出更新,減少數(shù)據(jù)搬運耗時;

緩存策略:通過L1/L2緩存精細化管理與K-buffer流水排布,提升緩存命中率與計算效率,實現(xiàn)張量計算與向量計算的相互掩蓋;

前序算子融合:在Prefill與Decode階段分別采用雙流并發(fā)與算子融合技術,結合權重預取、分塊策略及定制指令集優(yōu)化,構建端到端高效計算鏈路。

MoE算子方面的優(yōu)化則包括:

通算融合算子:針對EP部署模式下MoE專家的跨卡調(diào)度難題,設計MoeDistributeDispatch/Combine算子,通過 Token 粒度的流水排布與內(nèi)存語義通信技術,將通信與計算并行化,減少卡間同步開銷;

SMTurbo-CPP技術:針對小數(shù)據(jù)量通信效率問題,通過讀寫混合、聚合流水等硬件并發(fā)技術,提升AllToAll(v)算子的吞吐能力,降低Dispatch/Combine場景時延;

細粒度分級流水算法:基于Atlas 800I A2組網(wǎng)特性,實現(xiàn)節(jié)點內(nèi)/節(jié)點間的集合通信并發(fā)執(zhí)行,大幅提升集群環(huán)境下的帶寬利用率。

性能創(chuàng)新高

在Decode性能測試方面,Atlas 800I A2所采用的方式是:

序列長度為2K輸入+2K輸出和1K輸入+2K輸出兩種情況

在使能MTP進行推理加速的情況下,由于不同測試數(shù)據(jù)集和業(yè)務場景的MTP接受率不同,性能測試結果會有比較大的偏差。因此在計算時延和吞吐的時候默認按照70%接受率來折算。

TPOT(Decode平均每Token時延)不超過100ms。

具體表現(xiàn)如下所示:

在Prefill上的測試方法是,單batch輸入序列長度為2K/1K,通過拼batch的方式拼成一共16K序列。對于序列長度是2K,共8 batch拼成一共16K序列的場景,端到端耗時為631ms,卡均吞吐為1622 Tokens/s。

具體表現(xiàn)如下圖所示:

在2025年4月,硅基流動聯(lián)合華為云基于CloudMatrix 384超節(jié)點昇騰云服務和高性能推理框架SiliconLLM,用大規(guī)模專家并行最佳實踐正式上線DeepSeek-R1。

該服務在保證單用戶20 TPS(等效50ms時延約束) 水平前提下,單卡Decode吞吐突破1920 Tokens/s,可比肩H100部署性能。

而也正如我們剛才提到的,昇騰在超大規(guī)模MoE模型推理部署的技術報告分享了出來了,想要更深入了解的小伙伴,可以在文末鏈接中自取哦~

One More Thing

就在本周,華為昇騰還將舉辦一個技術披露周!


上一篇:美的方洪波,士為知己者死

下一篇:沒有了

相關內(nèi)容