GPU圖形產(chǎn)品面臨新的缺貨漲價(jià)風(fēng)險(xiǎn),這次不是拜挖礦所致,而是AI人工智能,尤其是最近大火的生成式聊天機(jī)器人ChatGPT。
據(jù)媒體報(bào)道,包括三星、SK海力士在內(nèi)的主要DRAM廠商已經(jīng)提高了對顯存芯片產(chǎn)品的報(bào)價(jià),先進(jìn)的HBM3,居然飆升了5倍之多,要知道HBM均價(jià)本就是普通DRAM的3倍,畢竟生產(chǎn)工藝和技術(shù)更復(fù)雜。
得益于超高帶寬,HBM3已經(jīng)得到NVIDIA計(jì)算卡H100搭載,Intel前不久推出的x86處理器Xeon Max上面也使用了HBM2e。
當(dāng)然,三星也有存算一體這樣的解決方案,比如HBM-PIM(Aquabolt-XL)芯片,可提供1.2T算力,SK海力士去年開發(fā)出具備計(jì)算功能的GDDR6-AiM,外界預(yù)計(jì)AI將至少在圖形計(jì)算、加速器這一領(lǐng)域拯救低迷的DRAM需求。
但隨之而來另一個(gè)隱憂是,業(yè)內(nèi)對AI包括機(jī)器學(xué)習(xí)訓(xùn)練的跟風(fēng),或?qū)?dǎo)致GPU芯片再度短缺。據(jù)了解,為了創(chuàng)建和維持ChatGPT所需的人工智能分析數(shù)據(jù)的龐大數(shù)據(jù)庫,開發(fā)者使用了10000個(gè)英偉達(dá)的GPU進(jìn)行相關(guān)的訓(xùn)練。
而目前為了滿足當(dāng)前服務(wù)器的需求,ChatGPT的開發(fā)商OpenAI已使用了約2.5萬個(gè)英偉達(dá)的GPU,隨著需求的增加未來預(yù)計(jì)還會(huì)增加。每有1億活躍用戶,ChatGPT就需要13.5EPLOPS的算力,大約是6.9萬臺(tái)NVIDIA DGX A100 80G服務(wù)器支撐,而目前全球的算力也只能支撐1億日均上線人數(shù)。
有專業(yè)人士推算,如果谷歌搜索全面集成Bard平臺(tái)AI技術(shù),需要512820臺(tái)A100 HGX服務(wù)器,將需要超過410萬個(gè)A100 GPU。