上市公司詳解“銅纜連接”技術準備 光模塊仍少不了 業(yè)內:黃仁勛“千年說”略夸張
發(fā)布時間:2024-03-20 21:35:10      來源:財聯(lián)社

“這是塊非常非常大的GPU!”20日凌晨GTC大會如期舉行,英偉達CEO黃仁勛發(fā)布最新一代AI芯片架構Blackwell。這場備受業(yè)界期待的大會上,首款Blackwell芯片GB200采用銅纜連接更是成為一大亮點,牽動市場神經(jīng)。

財聯(lián)社記者今日多方采訪獲悉,因速率更快且價格更低,采用銅纜連接未來將是數(shù)據(jù)中心發(fā)展的方向,不過完全銅纜化需要較長時間,部分廠商已研發(fā)出800Gb/s的高速電纜組件,但尚未批量生產(chǎn),光模塊仍是主流技術。

黃仁勛表示,GB200將于今年晚些時候上市。相關報道顯示,英偉達GB200 NVLink Switch和Spine由72個Blackwell GPU采用NVLink全互連,具有5000根NVLink銅纜(合計長度超2英里)。

從A股市場表現(xiàn)看,20日高速連接器概念發(fā)酵,銅纜方向領漲:華豐科技(688629.SH)、鼎通科技(688668.SH)、新亞電子(605277.SH)、兆龍互連(300913.SZ)等多股漲停,金信諾(300252.SZ)、亦東電子(301123.SZ)等大幅沖高。

財聯(lián)社記者從立訊精密方面獲悉,銅連接一直是其通訊業(yè)務核心產(chǎn)品。公司在銅纜連接方面已基于自主研發(fā)的Optamax?散裝電纜技術,開發(fā)了112G PAM4無源銅纜(DAC)、112G PAM4有源銅纜(ACC),通過Optamax?超低損耗高速裸線以符合MSA標準的paddle card和cage技術,將8個通道組合在一起,以每通道高達112 Gbps的速度運行到一個高密度數(shù)據(jù)接口(MDI)中,并與Marvell的DSP芯片結合,即可提供超過800 Gbps的聚合數(shù)據(jù)吞吐量。

立訊精密方面告訴記者,目前公司已能將銅纜的應用長度進一步延長到5米,滿足數(shù)據(jù)中心柜內及柜間的銅纜應用拓展需求,而這正是當下在短距(小于5米)傳輸中替代光模塊最具性價比的方案。

同時,財聯(lián)社記者以投資者身份致電兆龍互連證券部獲悉,該公司已研發(fā)出800Gb/s高速電纜組件。

此外,金信諾方面告訴記者,其布局的應用于數(shù)據(jù)中心領域的高速業(yè)務已獲國內主流服務器廠商供應商資質并實現(xiàn)穩(wěn)定交付;同時,去年內還獲得了一家海外廠商的供應商資質。

不過,兆龍互連人士稱,“部分廠商都已研發(fā)出了800Gb/s產(chǎn)品,但還沒有正式運用到服務器方面,因為現(xiàn)在國內這一塊的速率其實都不高,主要是100Gb/s、200Gb/s,國外的話可能會用到400Gb/s產(chǎn)品。”

一家AI公司的相關負責人也告訴財聯(lián)社記者,銅纜目前的問題在于無法長距離傳輸,但數(shù)據(jù)中心的線纜一般需要20米以上。

據(jù)財聯(lián)社記者測算,上述英偉達GB200每根NVLink銅纜長度約0.64米。該人士進一步表示,“英偉達這個方案每根銅纜的長度不超過一米,這個長度的銅纜傳輸技術目前已經(jīng)較為成熟?!?

銅纜的可行性得到確認,是否意味著“光退銅進”?有分析人士告訴財聯(lián)社記者,其實這一趨勢早已開始,這一擔憂去年就已消化。去年,英偉達發(fā)布的GH200第一層也使用了銅,但光模塊是必不可少的。”前述AI公司負責人亦表示,光模塊被取代暫時不太可能,完全銅纜化需要很長時間。目前已經(jīng)有數(shù)據(jù)中心部分使用銅纜傳輸,但服務器用的都是光模塊接口,因此銅纜的兩端也需要適配光模塊?!?

光模塊龍頭中際旭創(chuàng)(300308.SZ)證券部人士今日則告訴記者,“光模塊被取代屬于網(wǎng)上的傳聞?!碧戽谕ㄐ牛?00394.SZ)方面亦稱,光模塊和銅纜的使用情況取決于客戶的技術方案,現(xiàn)在主流技術還是光模塊。

此外,黃仁勛在GTC大會上還表示,此前OpenAI最大模型已有1.8T參數(shù),即使一塊PetaFLOP級的GPU也需300億秒(約1000年)才能完成。為此英偉達必須首先拿出新GPU,即Blackwell。

會后,黃仁勛的這一表述被一部分媒體解讀為“使用新款GPU訓練AI模型可提前1000年達到預期”,引發(fā)業(yè)內諸多討論。針對這一說法,前述AI公司負責人表示,這個表述用了一些夸張手法,因為對比的是一張單卡1PFlops(每秒浮點運算數(shù))的單機進行訓練的結果,但實際上目前所有的訓練都是千萬張卡集群合成的結果。例如莫斯科國立大學(MSU)去年上線的最新超級計算機“MSU-270”,其AI計算性能為400PFlops。