日前,在2024開放計(jì)算中國(guó)峰會(huì)上,浪潮信息服務(wù)器產(chǎn)品線總經(jīng)理趙帥表示,智能時(shí)代,開源模型和開放計(jì)算激發(fā)了人工智能產(chǎn)業(yè)生態(tài)的創(chuàng)新活力,面對(duì)大模型Scaling Law帶來的AI基礎(chǔ)設(shè)施Scale up和Scale out的挑戰(zhàn),數(shù)據(jù)中心需要以開放創(chuàng)新加速算力系統(tǒng)、管理和基礎(chǔ)設(shè)施的全向Scale進(jìn)程,推動(dòng)AI產(chǎn)業(yè)的創(chuàng)新發(fā)展。
開源開放推動(dòng)人工智能創(chuàng)新與算力生態(tài)的全面發(fā)展
生成式人工智能的飛躍式進(jìn)步正在加速智能時(shí)代的到來,數(shù)據(jù)中心基礎(chǔ)設(shè)施面臨全方位創(chuàng)新,將越來越依賴更加廣泛的全球化開放協(xié)作,加速 AI 技術(shù)創(chuàng)新與應(yīng)用,共同構(gòu)建一個(gè)充滿創(chuàng)新活力的智能世界,而激發(fā)人工智能創(chuàng)新活力,開源開放是核心和源泉。
模型開源激發(fā)人工智能創(chuàng)新活力。隨著開源大模型能力的不斷增強(qiáng)和開源生態(tài)的持續(xù)壯大,帶動(dòng)模型、應(yīng)用到產(chǎn)業(yè)的全面發(fā)展,三分之二的基礎(chǔ)模型選擇開源,超過 80% 以上的 AI 項(xiàng)目使用開源框架進(jìn)行開發(fā),開源模型的下載量突破 3 億次,并衍生出超過 3 萬個(gè)新模型,Llama 3.1、通義千問、源 2.0 等開源大模型成為人工智能創(chuàng)新的驅(qū)動(dòng)力。
硬件開放完善人工智能算力生態(tài)。人工智能帶來指數(shù)級(jí)增長(zhǎng)的算力需求,全球已有上百家公司投入新型 AI 芯片的研發(fā)與設(shè)計(jì),百花齊放的算力芯片需要統(tǒng)一的算力平臺(tái)才能快速推向市場(chǎng),實(shí)現(xiàn)落地。開放加速規(guī)范 OAM 的出現(xiàn)大大加速多元算力芯片的適配兼容過程,大幅降低資源投入,使算力部署和迭代提速,支撐上層大模型和 AIGC 應(yīng)用的快速迭代成熟。目前,90% 高端 AI 芯片基于 OAM 規(guī)范設(shè)計(jì),去年浪潮信息剛剛發(fā)布的基于 OAM 規(guī)范的開放加速計(jì)算平臺(tái) NF5698G7 與多款主流 AI 加速芯片適配兼容,基于 OAM 的智算產(chǎn)業(yè)生態(tài)圈日趨完善。
我們可以看到,AI 時(shí)代,算力正在呈現(xiàn)出多元化的發(fā)展趨勢(shì)。為應(yīng)對(duì) AIGC、云計(jì)算、大數(shù)據(jù)等應(yīng)用復(fù)雜且不斷變化的計(jì)算需求,不僅僅是 GPU,CPU、FPGA、ASIC 等芯片也在朝著更加多樣化和專用化的方向發(fā)展。而且無論是手機(jī)、電腦、邊緣設(shè)備、CPU 通用服務(wù)器、加速服務(wù)器都具有了 AI 計(jì)算的能力,可以說一切計(jì)算皆 AI,AI 算力已經(jīng)深入到千行百業(yè),滲透進(jìn)每一個(gè)計(jì)算設(shè)備里。面向人工智能的算力范式不斷革新,基于 CPU 的通用服務(wù)器不僅要承載大數(shù)據(jù)、關(guān)鍵計(jì)算、科學(xué)計(jì)算外,也要承擔(dān) AI 應(yīng)用的重要任務(wù),這也是 CPU 通用服務(wù)器的重大機(jī)遇。
但隨著應(yīng)用范式的多樣化,目前 x86、ARM、RISC-V 等不同架構(gòu)的 CPU 處理器百花齊放,僅中國(guó),就有 10 多種 CPU 處理器,不同 CPU 協(xié)議標(biāo)準(zhǔn)不統(tǒng)一,同時(shí)為了更好的適合 AI 推理高并行的計(jì)算特點(diǎn),CPU 總線互聯(lián)帶寬、內(nèi)存帶寬及容量也需要特別優(yōu)化,使得系統(tǒng)功耗、總線速率、電流密度不斷提升…… 多種因素疊加之下,硬件開發(fā)、固件適配、部件測(cè)試資源等時(shí)間激增,給算力系統(tǒng)設(shè)計(jì)帶來巨大挑戰(zhàn)。
為了縮短從芯片到算力系統(tǒng)的轉(zhuǎn)化時(shí)間,給用戶提供更快、更好的算力支撐,CPU 端也亟需構(gòu)建智算時(shí)代的 CPU 統(tǒng)一底座,能夠兼容不同芯片廠商、多代產(chǎn)品。2024 開放計(jì)算中國(guó)峰會(huì)上,開放算力模組 (OCM) 規(guī)范正式啟動(dòng),首批成員包括中國(guó)電子標(biāo)準(zhǔn)院、百度、小紅書、浪潮信息、聯(lián)想、超聚變、英特爾、AMD 等機(jī)構(gòu)和企業(yè)。
全新的開放算力模組 OCM 規(guī)范,旨在建立基于處理器的標(biāo)準(zhǔn)化算力模組單元,通過統(tǒng)一不同處理器算力單元對(duì)外高速互連、管理協(xié)議、供電接口等,實(shí)現(xiàn)服務(wù)器主板平臺(tái)的深度解耦和模塊化設(shè)計(jì),兼容不同架構(gòu)的多代處理器芯片,方便客戶根據(jù)人工智能、云計(jì)算、大數(shù)據(jù)等多樣化應(yīng)用場(chǎng)景,靈活、快速匹配最適合的算力平臺(tái),推動(dòng)算力產(chǎn)業(yè)高質(zhì)量快速發(fā)展。
OCM 規(guī)范是國(guó)內(nèi)首個(gè)服務(wù)器計(jì)算模組設(shè)計(jì)規(guī)范,產(chǎn)業(yè)界上下游伙伴將基于 OCM 規(guī)范,共同建立標(biāo)準(zhǔn)化的算力模組單元,構(gòu)建開放合作、融合創(chuàng)新的產(chǎn)業(yè)生態(tài),為用戶提供更多通用性強(qiáng)、綠色高效、安全可靠的算力選擇。
以開放創(chuàng)新的全向 Scale 應(yīng)對(duì)大模型第一性原理
算力、算法和數(shù)據(jù)是推動(dòng)人工智能發(fā)展的三駕馬車,自 Transformer 架構(gòu)出現(xiàn)以來,大模型性能與其參數(shù)量、計(jì)算當(dāng)量、數(shù)據(jù)量的協(xié)同作用尤為顯著,業(yè)界稱之為大語言模型的第一性原理 ——Scaling Law。
智算時(shí)代,需要用開放的理念來加速算力系統(tǒng)全向 Scale, 從而應(yīng)對(duì)大模型的 Scaling Law。隨著大模型能力的持續(xù)進(jìn)化,算法規(guī)模和復(fù)雜性不斷增加、數(shù)據(jù)量越來越大,算力需求也在不斷攀升,需要同時(shí)應(yīng)對(duì)單系統(tǒng)性能提升 Scale up 與多系統(tǒng)大規(guī)模擴(kuò)展 Scale out 兩個(gè)方向擴(kuò)展的挑戰(zhàn),對(duì)數(shù)據(jù)中心基礎(chǔ)設(shè)施、算力管理、迭代升級(jí)等都提出了更高要求。
在算力方面,智算中心需要同時(shí)應(yīng)對(duì)兩個(gè)方向的擴(kuò)展,分別是強(qiáng)算力支持、一機(jī)多芯、多元多模的單機(jī)系統(tǒng) Scale up 要求和大規(guī)模 AI 組網(wǎng)、高帶寬、資源池化的大規(guī)模化擴(kuò)展 Scale out 要求,以開放加速模組和開放網(wǎng)絡(luò)實(shí)現(xiàn)算力的 Scale。UBB2.0 開放標(biāo)準(zhǔn)支持更高算力規(guī)格的加速卡、可以實(shí)現(xiàn)更大的 OAM domain 互聯(lián),未來可以支持 8000 + 張加速卡 Scale up, 突破大模型 All to All 通信過程中的互聯(lián)瓶頸。同時(shí),大模型的發(fā)展需要更大規(guī)模的算力系統(tǒng),浪潮信息開放網(wǎng)絡(luò)交換機(jī)可實(shí)現(xiàn) 16000 + 個(gè)計(jì)算節(jié)點(diǎn) 10 萬 + 加速卡的 Scale out 組網(wǎng),滿足加速卡之間的互聯(lián)通信需求,帶寬利用率高達(dá) 95%+。
在管理方面,需要解決跨平臺(tái)適配、模塊化架構(gòu)、快速迭代的 Scale 要求,以開放的固件解決方案實(shí)現(xiàn)了管理的 Scale。當(dāng)前,異構(gòu)算力多元分化,異步迭代,管理接口規(guī)范各不相同,導(dǎo)致固件平臺(tái)分支版本龐大,相互割裂,無法歸一,單一企業(yè)資源在維護(hù)和適配如此眾多的分支版本方面捉襟見肘。為解決一系列管理挑戰(zhàn),需要依托于開源社區(qū)的開源固件平臺(tái),構(gòu)建原生解耦架構(gòu)提升可擴(kuò)展性,建立統(tǒng)一標(biāo)準(zhǔn)的接口規(guī)范,支持用戶對(duì)于自主模塊進(jìn)行定制化,實(shí)現(xiàn)標(biāo)準(zhǔn)接口規(guī)范下的異步、自主定制迭代,以滿足智算時(shí)代的算力迭代需求。
在基礎(chǔ)設(shè)施方面,數(shù)據(jù)中心面臨智能算力擴(kuò)展的兩大 Scale 挑戰(zhàn): 一是 GPU、CPU 算力提升,單芯片單卡功耗急劇增加,單機(jī)柜在供電和制冷上面臨著 Scale up 支撐挑戰(zhàn);同時(shí),Scaling Law 驅(qū)動(dòng) GPU 規(guī)模無限膨脹,達(dá)到萬卡、十萬卡級(jí)別,帶來了數(shù)據(jù)中心層級(jí) Scale out 的支撐挑戰(zhàn),需要開放標(biāo)準(zhǔn)和開放生態(tài)將實(shí)現(xiàn)基礎(chǔ)實(shí)施的 Scale, 滿足快速建設(shè)、高算力 / 高能耗支撐要求。采用開放標(biāo)準(zhǔn)、開放生態(tài)構(gòu)建的數(shù)據(jù)中心基礎(chǔ)設(shè)施,能更好地匹配智算時(shí)代多元、異構(gòu)算力的擴(kuò)展和迭代速度,進(jìn)而支撐上層智能應(yīng)用的進(jìn)一步普及。以浪潮信息為例,基于開放標(biāo)準(zhǔn)推出的液冷冷板組件,支撐單機(jī)系統(tǒng)內(nèi) GPU 和 CPU 核心算力原件 Scale up 擴(kuò)展;推出模塊化、標(biāo)準(zhǔn)接口的 120kw 機(jī)柜,兼容液冷、風(fēng)冷場(chǎng)景,支撐柜內(nèi)更大的部署需求;推出基于開放標(biāo)準(zhǔn)的預(yù)制化集裝箱數(shù)據(jù)中心,大幅壓縮建設(shè)周期,其擴(kuò)展性很好的滿足了 AI 算力系統(tǒng)的 Scale 需要。
開放計(jì)算為數(shù)據(jù)中心的全向 Scale, 提供了一個(gè)可以迅速傳遞到整個(gè)產(chǎn)業(yè)鏈的“通道”。目前,開放加速模組和開放網(wǎng)絡(luò)實(shí)現(xiàn)了算力的 Scale, 開放固件解決方案實(shí)現(xiàn)了管理的 Scale, 開放標(biāo)準(zhǔn)和開放生態(tài)實(shí)現(xiàn)了基礎(chǔ)設(shè)施的 Scale。開放計(jì)算對(duì)于智算時(shí)代至關(guān)重要,需要用開放應(yīng)對(duì)多元算力,用開放促進(jìn)算力的 Scale, 基于開放創(chuàng)新構(gòu)建的全向 Scale 能力將會(huì)成為未來 AI 基礎(chǔ)設(shè)施的核心驅(qū)動(dòng)力,加速智算時(shí)代的創(chuàng)新,加速人工智能的前行。
來源:IT之家