智東西(公眾號:zhidxcom)
作者 | 李水青
編輯 | 心緣

智東西8月19日銀川報道,昨日,由工業(yè)和信息化部、寧夏回族自治區(qū)政府主辦的2023中國算力大會在寧夏銀川舉辦。

大會期間,作為頭部算力基礎設施提供商,聯(lián)想推出兩款全新AI服務器產(chǎn)品——聯(lián)想問天WA7780 G3 AI大模型訓練服務器、聯(lián)想問天WA5480 G3 AI訓推一體服務器,為大模型AI訓練和推理提供新的基礎設施。

聯(lián)想推出AI大模型訓練服務器!對話聯(lián)想副總裁:全面打造AI導向的基礎設施▲“算力中國”創(chuàng)新成果展上的聯(lián)想兩款AI服務器產(chǎn)品展示

同時,聯(lián)想首次對外發(fā)布“普慧”AI算力戰(zhàn)略,提出將100%算力基礎設施產(chǎn)品支持AI,50%基礎設施研發(fā)投入在AI領域等戰(zhàn)略舉措,并推出了聯(lián)想智算中心解決方案和服務核心產(chǎn)品。

聯(lián)想集團副總裁、中國區(qū)基礎設施業(yè)務群服務器事業(yè)部總經(jīng)理陳振寬說:“全新推出的兩款聯(lián)想問天AI服務器,秉承‘AI賦智,綠色賦能’的兩大戰(zhàn)略特征,通過領先的AI技術,覆蓋全域應用,打造全面的AI導向基礎設施?!?/p>

聯(lián)想推出AI大模型訓練服務器!對話聯(lián)想副總裁:全面打造AI導向的基礎設施▲聯(lián)想集團副總裁、中國區(qū)基礎設施業(yè)務群服務器事業(yè)部總經(jīng)理陳振寬

會議期間,智東西與少數(shù)媒體對陳振寬,以及聯(lián)想集團副總裁、中國區(qū)方案服務業(yè)務群總經(jīng)理戴煒進行了深度采訪。

AI服務器的交付時間是產(chǎn)業(yè)關注的一大焦點問題。對此,陳振寬告訴智東西,目前AI服務器呈現(xiàn)供不應求的態(tài)勢。今天正式對外宣布兩款的AI服務器,目前訂單數(shù)量火爆,一些訂單甚至要排到明年。

當下眾多中國廠商發(fā)布了大模型,聯(lián)想在此是否已有布局?

戴煒告訴智東西,聯(lián)想目前沒有自研通用超大規(guī)模模型,而是聚焦于智能基礎設施服務方面,基于百行業(yè)的客戶應用需求、圍繞行業(yè)場景去布局。

聯(lián)想推出AI大模型訓練服務器!對話聯(lián)想副總裁:全面打造AI導向的基礎設施▲聯(lián)想集團副總裁、中國區(qū)方案服務業(yè)務群總經(jīng)理戴煒

當談到大模型對東數(shù)西算工程的影響,戴煒認為,大模型的興起或許能為以寧夏為代表的西部算力樞紐帶來新機遇。離客戶場景較近的大模型推理可以放在東部算力樞紐,離客戶場景較遠的大模型訓練則可放在西部算力樞紐。

而帶動“東數(shù)西算”工程的落地,需要智能計算技術、應用需求、人才生態(tài)等多方面因素共同作用。

一、聯(lián)想副總裁陳振寬:50%基礎設施研發(fā)投入在AI領域

隨著算力成為各國科技戰(zhàn)略布局重點,聯(lián)想提出將“普慧算力”作為算力發(fā)展的戰(zhàn)略方向。

陳振寬說,“普”代表普適,希望算力像水和電一樣,人人可得、人人可用、人人適用;“慧”代表智慧,意味著自適應、自學習、自進化,用戶可以隨需使用。

陳振寬說,聯(lián)想的“普慧”AI算力戰(zhàn)略有兩大特征:一是AI賦智,二是綠色賦能。

在AI賦智方面,聯(lián)想提出將100%算力基礎設施產(chǎn)品支持AI,50%基礎設施研發(fā)投入在AI領域,全面AI技術覆蓋全域AI應用。在綠色賦能方面,聯(lián)想提出全面布局和引領液冷技術,打造液冷技術和液冷集群方案燈塔,持續(xù)創(chuàng)新引領未來技術。

聯(lián)想推出AI大模型訓練服務器!對話聯(lián)想副總裁:全面打造AI導向的基礎設施▲聯(lián)想要提供全面的AI技術與服務

追溯聯(lián)想AI算力戰(zhàn)略的背后邏輯,聯(lián)想“AI賦智,綠色賦能”如何促進“普慧”AI算力實現(xiàn)?

陳振寬告訴智東西,聯(lián)想通過“全棧智能”的方式實現(xiàn)戰(zhàn)略方向的落地,體現(xiàn)在三個方面:AI內嵌的智能終端、AI導向的基礎設施、AI原生的方案服務。

在AI導向的基礎設施方面,聯(lián)想已推出了“聯(lián)想ThinkSystem”和“聯(lián)想問天”雙品牌,目前在AI方面已有60多款產(chǎn)品。

其中聯(lián)想ThinkSystem系列產(chǎn)品主打“全球智慧+本地交付”,新的聯(lián)想問天品牌則主打“本地創(chuàng)新+敏捷高效”,基于本地的創(chuàng)新、生態(tài)位中國客戶實現(xiàn)更加靈活定制的個性化方案。

聯(lián)想推出AI大模型訓練服務器!對話聯(lián)想副總裁:全面打造AI導向的基礎設施

▲聯(lián)想智能算力基礎設施采取雙品牌戰(zhàn)略

二、推出兩大AI服務器產(chǎn)品,大模型訓練提速近10

以AI為導向的基礎設施要依據(jù)AI數(shù)據(jù)和算法的特性而設計和優(yōu)化,包括AI數(shù)據(jù)的“向量、矩陣或多維數(shù)組的形式”、“數(shù)據(jù)噪音多”等特征,以及AI算法“巨大規(guī)模并行計算和矩陣計算”、“容忍低精度浮點或量化整數(shù)”等特征,都需要被考慮在內。

本次,聯(lián)想推出的兩大AI服務器產(chǎn)品聯(lián)想問天WA7780 G3 AI大模型訓練服務器、聯(lián)想問天WA5480 G3 AI訓推一體服務器,正是其全新AI算力戰(zhàn)略理念的展現(xiàn)。

1、AI大模型訓練服務器:算力達32P FLOPS,大模型AI訓練速度提升9倍

今年年初,聯(lián)想發(fā)布了聯(lián)想服務器的首個本地化品牌“聯(lián)想問天”,聯(lián)想問天WA7780 G3是一款專為AI大模型訓練所打造的服務器。

聯(lián)想推出AI大模型訓練服務器!對話聯(lián)想副總裁:全面打造AI導向的基礎設施

▲聯(lián)想問天WA7780 G3 AI大模型訓練服務器

(1)AI算力提升超3倍,AI推理速度提升達30倍

聯(lián)想問天WA7780 G3 AI大模型訓練服務器基于第四代英特爾至強可擴展處理器。NVIDIA HGX H800系統(tǒng)配備8顆H800 NVLink GPU,擁有高達640GB的HBM3高速顯存,通過NVLink,GPU間互聯(lián)帶寬高達400GB/s。據(jù)稱其將AI算力提升了3.44倍,至高可達32P FLOPS AI算力。

NVIDIA H800 GPU匹配第四代Tensor Core配合Transformer引擎(FP8精度),與上一代產(chǎn)品相比,可為大模型AI訓練速度帶來高達9倍提升,可將大模型AI推理速度提升高達30倍。

聯(lián)想推出AI大模型訓練服務器!對話聯(lián)想副總裁:全面打造AI導向的基礎設施▲聯(lián)想問天WA7780 G3 AI大模型訓練服務器的算力指標情況

(2)快速低延遲互聯(lián),支持按需配比和擴展不同算力

聯(lián)想問天WA7780 G3 AI大模型訓練服務器支持IB、RoCE等多種對外網(wǎng)絡連接方案。其最高可以支持8張RDMA高速網(wǎng)卡,提供3.2Tb/s聚合帶寬,充分滿足了超大模型訓練并行計算時,跨節(jié)點的通信需求。

同時,在本地存儲的設計上,聯(lián)想問天WA7780 G3采用GPU Direct Storage (GDS)技術。通過GDS技術,GPU與NVMe實現(xiàn)了快速低延遲互聯(lián),能夠有效提高訓練數(shù)據(jù)載入的速度,提升大模型訓練的性能。

聯(lián)想推出AI大模型訓練服務器!對話聯(lián)想副總裁:全面打造AI導向的基礎設施▲聯(lián)想問天WA7780 G3 AI大模型訓練服務器的靈活架構

(3)創(chuàng)新散熱設計:功耗降低約10%,PUE值有望低于1.1

聯(lián)想問天WA7780 G3 AI大模型訓練服務器,在產(chǎn)品設計中采用了三重獨立風道設計,針對不同部件的散熱特征,進行了系統(tǒng)性的優(yōu)化,有效降低了由風扇帶來的散熱功耗。據(jù)稱,相比同級別產(chǎn)品,聯(lián)想問天WA7780 G3 AI大模型訓練服務器功耗降低約10%。

同時,為了滿足未來智算中心對PUE值更低的要求,本產(chǎn)品預留了液冷冷板設計,未來將支持液冷,這將大幅度節(jié)省在AI大模型訓練過程中,因系統(tǒng)散熱帶來的額外能耗,PUE值有望低于1.1。

聯(lián)想推出AI大模型訓練服務器!對話聯(lián)想副總裁:全面打造AI導向的基礎設施▲聯(lián)想問天WA7780 G3 AI大模型訓練服務器能耗情況

2、AI訓推一體服務器:支持多種場景、多元算力

再來看看聯(lián)想問天WA5480 G3 AI訓推一體服務器。這是聯(lián)想問天品牌中的一款4U機架式AI服務器,支持多元的算力和豐富的生態(tài)。

聯(lián)想推出AI大模型訓練服務器!對話聯(lián)想副總裁:全面打造AI導向的基礎設施

▲聯(lián)想問天WA5480 G3 AI訓推一體服務器

(1)最多支持10張NVIDIA H800,支持多款AI加速卡

聯(lián)想問天WA5480 G3 AI訓推一體服務器采用2顆第四代英特爾至強可擴展處理器,支持最新PCIe 5.0。通過PCIe擴展,其最多可以支持10張包括最新NVIDIA H800 GPU在內的,多類型、多品牌AI加速卡。聯(lián)想問天WA5480 G3可以靈活應用于AI通用模型訓練、大模型推理、AI生成、云游戲、科學計算等多種應用場景。

聯(lián)想推出AI大模型訓練服務器!對話聯(lián)想副總裁:全面打造AI導向的基礎設施

▲聯(lián)想問天WA5480 G3 AI訓推一體服務器支持多元算力

(2)靈活拓撲,不同組合滿足多種AI場景需求

聯(lián)想問天WA5480 G3 AI訓推一體服務器在CPU-GPU互聯(lián)的硬件設計上采用靈活多變的設計理念。其基于不同AI工作負載,可以為客戶提供包括直通、Balance、Common多種CPU-GPU互聯(lián)方式,避免了因為CPU-GPU數(shù)據(jù)通信方式單一與工作負載不匹配,帶來的潛在性能瓶頸和系統(tǒng)效率下降。結合不同種類,不同數(shù)量的加速卡選擇,其可實現(xiàn)對AI各種復雜場景的完美匹配。

聯(lián)想推出AI大模型訓練服務器!對話聯(lián)想副總裁:全面打造AI導向的基礎設施▲聯(lián)想問天WA5480 G3 AI訓推一體服務器支持豐富生態(tài)

(3)充分考慮設計冗余,確保無間斷運行

聯(lián)想問天WA5480 G3 AI訓推一體服務器充分考慮了設計冗余,支持電源N+N冗余,節(jié)點內電源間互為備份,對外可以連接雙路市電,從而保障服務器24小時在線運行。該產(chǎn)品支持CPU、GPU、內存等關鍵部件的功耗監(jiān)測,整機功耗封頂調控,動態(tài)保障服務器運行在合理的功耗區(qū)間,保證性能的穩(wěn)定,以及風扇N+1冗余等多種安全設計保障高環(huán)溫無間斷運行。

聯(lián)想推出AI大模型訓練服務器!對話聯(lián)想副總裁:全面打造AI導向的基礎設施

▲聯(lián)想問天WA5480 G3 AI訓推一體服務器的穩(wěn)定性

陳振寬告訴智東西,在AI算力、智算方面,這應該是一個變革式的推出,循序漸進式的不大可以滿足智算的需求。所以在智算方面,聯(lián)想這次推出的這兩款產(chǎn)品還是比較偏向于大規(guī)模的推理和大規(guī)模的訓練,就是大規(guī)模和超大規(guī)模。

三、推出智算中心方案,三種交付方式支持三類算力場景

當下,混合架構模式在智算中心的建設中已成為行業(yè)趨勢。

戴煒認為,智能算力場景持續(xù)推動算力需求的不斷升級,智算中心建設需要滿足千行百業(yè)對混合算力的要求,包括公有云和私有云的混合,國產(chǎn)算力及通用算力的混合,以及普算、超算和智算,企業(yè)智算中心和區(qū)域智算中心都顯現(xiàn)出復雜性。

智算中心的復雜性需要領先的技術框架和陪伴服務。為此,聯(lián)想推出端到端的智算中心方案,以及全周期陪伴式服務能力。

聯(lián)想推出AI大模型訓練服務器!對話聯(lián)想副總裁:全面打造AI導向的基礎設施

▲戴煒講解智算中心方案及陪伴服務

聯(lián)想智算中心解決方案,是其AI原生的方案服務的重要部分。AI原生的方案服務包括聯(lián)想智算中心解決方案、聯(lián)想混合云解決方案、聯(lián)想大腦嵌入的解決方案和端到端全周期的聯(lián)想智算中心服務和臻算服務。

聯(lián)想推出AI大模型訓練服務器!對話聯(lián)想副總裁:全面打造AI導向的基礎設施

▲聯(lián)想智算中心解決方案

戴煒說:“針聯(lián)想方案服務將以三種交付方式(混合云、臻算服務2.0訂閱式和一站式)支持三類算力場景(普算、智算、超算)的混合計算需求?!?/p>

結語:大模型落地行業(yè),推動AI算力需求爆發(fā)

隨著大模型向千行百業(yè)落地,AI算力已成為算力基礎設施的重要發(fā)展方向。知名行研機構IDC報告顯示,隨著生成式人工智能應用的爆發(fā),各行業(yè)對智算的需求首次超過通用算力,AI算力已成為算力發(fā)展的主要方向,也成為“東數(shù)西算”發(fā)展的新的強勁動力。

乘此東風,IDC的數(shù)據(jù)顯示聯(lián)想集團是2022增長最快的AI硬件基礎設施(服務器和存儲)提供商,同比增長139%,全球排名第三。本次,隨著聯(lián)想推出多款面向AI大模型時代的服務器,并加速推進AI賦智、綠色賦能的“普慧”戰(zhàn)略,其有望為我國大模型的研發(fā)和落地提供新的動力。