正在閱讀:

AI缺芯,英偉達(dá)賣(mài)斷貨

掃一掃下載界面新聞APP

AI缺芯,英偉達(dá)賣(mài)斷貨

“壟斷”AI芯片的英偉達(dá)。

圖片來(lái)源:Unsplash-Christian Wiediger

文|鋅財(cái)經(jīng) 孫鵬越

編輯|大風(fēng)

8月8日,全球計(jì)算機(jī)業(yè)內(nèi)最重要的圓桌會(huì)議,世界計(jì)算機(jī)圖形學(xué)會(huì)議SIGGRAPH正式召開(kāi)。

NVIDIA創(chuàng)始人兼CEO黃仁勛出席,并帶來(lái)了新一代英偉達(dá)超級(jí)AI芯片GH200。黃仁勛對(duì)自己的新旗艦產(chǎn)品非常有自信,將GH200稱為“世界上最快的內(nèi)存”。

在如今的AI市場(chǎng),英偉達(dá)是堪稱“運(yùn)轉(zhuǎn)整個(gè)AI世界的中心”。不論是OpenAI還是谷歌、META、百度、騰訊、阿里巴巴,所有的生成式AI都極度依賴英偉達(dá)的AI芯片來(lái)訓(xùn)練。

并且,據(jù)媒體報(bào)道,英偉達(dá)AI芯片H100在2023年8月的市場(chǎng)總需求可能在43.2萬(wàn)張左右,而目前一張H100芯片在Ebay上的價(jià)格甚至炒到了4.5萬(wàn)美元,折合人民幣超過(guò)了30萬(wàn)元。

40多萬(wàn)張芯片缺口,單價(jià)4.5萬(wàn)美元,總價(jià)輕輕松松上數(shù)百萬(wàn)美元。

英偉達(dá),正在經(jīng)歷一場(chǎng)比“挖礦時(shí)代”更瘋狂的市場(chǎng)浪潮。

AI芯片,一張難求

所謂的AI芯片,其實(shí)是圖形處理器(GPU),主要作用是幫助運(yùn)行訓(xùn)練和部署人工智能算法所涉及的無(wú)數(shù)計(jì)算。

也就是說(shuō),生成式AI的種種智能表現(xiàn),均來(lái)自于無(wú)數(shù)GPU的堆砌。使用的芯片越多,生成式AI就越智能。

OpenAI對(duì)GPT-4訓(xùn)練細(xì)節(jié)守口如瓶,但據(jù)媒體猜測(cè),GPT-4至少需要8192張H100芯片,以每小時(shí)2美元的價(jià)格,在約55天內(nèi)可以完成預(yù)訓(xùn)練,成本約為2150萬(wàn)美元(1.5億人民幣)。

據(jù)微軟高管透露,為ChatGPT提供算力支持的AI超級(jí)計(jì)算機(jī),是微軟在2019年投資10億美元建造一臺(tái)大型頂尖超級(jí)計(jì)算機(jī),配備了數(shù)萬(wàn)個(gè)英偉達(dá)A100 GPU,還配備了60多個(gè)數(shù)據(jù)中心總共部署了幾十萬(wàn)個(gè)英偉達(dá)GPU輔助。

ChatGPT所需要的AI芯片并不是固定的,而是逐次遞增。ChatGPT越聰明,背后的代價(jià)是所需算力越來(lái)越多。據(jù)摩根士丹利預(yù)測(cè),到了GPT-5大概需要使用2.5萬(wàn)個(gè)GPU,約是GPT-4的三倍之多。

如果想滿足OpenAI、谷歌等一系列AI產(chǎn)品的需求,那么就相當(dāng)于英偉達(dá)一家公司為全世界的AI產(chǎn)品供芯,這對(duì)于英偉達(dá)的產(chǎn)能是個(gè)極大的考驗(yàn)。

雖然英偉達(dá)正在開(kāi)足馬力生產(chǎn)AI芯片,但據(jù)媒體報(bào)道,小型和大型云提供商的大規(guī)模H100集群容量即將耗盡,H100的“嚴(yán)重缺貨問(wèn)題”至少會(huì)持續(xù)到2024年底。

目前,英偉達(dá)作用于AI市場(chǎng)的芯片主要分為H100和A100兩種,H100是旗艦款產(chǎn)品,從技術(shù)細(xì)節(jié)來(lái)說(shuō),H100比A100在16位推理速度大約快3.5倍,16位訓(xùn)練速度大約快2.3倍。

不論是H100還是A100,全部都是由臺(tái)積電合作生產(chǎn),就使得H100的生產(chǎn)受到了限制。有媒體稱,每一張H100從生產(chǎn)到出廠大約需要半年的時(shí)間,生產(chǎn)效率非常的緩慢。

英偉達(dá)曾表示它們?cè)?023年下半年,提高對(duì)AI芯片的供應(yīng)能力,但沒(méi)有提供任何定量的信息。

不少公司和求購(gòu)者都在呼吁,要求英偉達(dá)加大對(duì)晶圓廠的生產(chǎn)數(shù)量,不只和臺(tái)積電合作,而是把更多的訂單交給三星和英特爾。

更快的訓(xùn)練速度

如果沒(méi)辦法提高產(chǎn)能,那么最好的解決辦法就是推出性能更高的芯片,以質(zhì)取勝。

于是乎,英偉達(dá)開(kāi)始頻頻推出新款GPU用來(lái)提升AI訓(xùn)練能力。先是在今年3月,英偉達(dá)發(fā)布了H100 NVL GPU、L4 Tensor Core GPU、L40 GPU、NVIDIA Grace Hopper四款A(yù)I芯片,以滿足生成式AI們?nèi)找嬖鲩L(zhǎng)的算力需求。

在上一代還未量產(chǎn)上市,英偉達(dá)又在8月8日世界計(jì)算機(jī)圖形學(xué)會(huì)議SIGGRAPH上,由黃仁勛發(fā)布了H100的升級(jí)版,GH200。

據(jù)了解,全新GH200 Grace Hopper Superchip基于72核Grace CPU,配備480GB ECC LPDDR5X內(nèi)存以及GH100計(jì)算GPU,搭配141GB HBM3E內(nèi)存,采用6個(gè)24GB堆棧,使用6144位存儲(chǔ)器接口。

GH200最大的黑科技,就是作為世界上第一款配備HBM3e內(nèi)存的芯片,能夠?qū)⑵浔镜谿PU內(nèi)存增加50%。而這也是專門(mén)對(duì)人工智能市場(chǎng)做的“特定升級(jí)”,因?yàn)轫敿?jí)生成式AI往往尺寸巨大卻內(nèi)存容量有限。

據(jù)公開(kāi)資料顯示,HBM3e內(nèi)存是SK海力士的第五代高帶寬內(nèi)存,是一種新型的高帶寬內(nèi)存技術(shù),可以在更小的空間內(nèi)提供更高的數(shù)據(jù)傳輸速率。它的容量為141GB,帶寬為每秒5TB,能分別達(dá)到H100的1.7倍和1.55倍。

從7月份發(fā)布以來(lái),SK海力士就成為GPU市場(chǎng)的寵兒,領(lǐng)先于直接競(jìng)爭(zhēng)對(duì)手英特爾Optane DC和三星的Z-NAND閃存芯片。

值得一提的是,SK海力士一直以來(lái)都是英偉達(dá)的合作伙伴之一,從HBM3內(nèi)存開(kāi)始,英偉達(dá)絕大部分產(chǎn)品都是采用SK海力士的產(chǎn)品。但SK海力士對(duì)于AI芯片所需要的內(nèi)存一直產(chǎn)能堪憂,英偉達(dá)不止一次的要求SK海力士提高產(chǎn)能。

一個(gè)難產(chǎn)大戶遇上另一個(gè)難產(chǎn)大戶,不由讓人擔(dān)心GH200的產(chǎn)能。

NVIDIA官方表示,GH200與當(dāng)前一代產(chǎn)品H100相比,內(nèi)存容量高出3.5倍,帶寬高出3倍;并且,HBM3e內(nèi)存將使下一代GH200運(yùn)行AI模型的速度比當(dāng)前模型快3.5倍。

比H100運(yùn)行AI模型的速度快3.5倍,是否意味著,1張GH200就能相當(dāng)于3.5張H100?一切都還得實(shí)踐操作才能得知。

但目前來(lái)說(shuō),可以肯定的一點(diǎn)就是,作為AI市場(chǎng)的最大供應(yīng)商,英偉達(dá)進(jìn)一步鞏固了自己領(lǐng)先位置,并和AMD和英特爾拉大了差距。

英偉達(dá)的對(duì)手們

面對(duì)43萬(wàn)張AI芯片缺口,沒(méi)有一家公司不動(dòng)心。尤其是英偉達(dá)的最大競(jìng)爭(zhēng)對(duì)手AMD和英特爾,不會(huì)放任其一個(gè)人獨(dú)吞整個(gè)市場(chǎng)。

今年6月14日,AMD董事會(huì)主席、CEO蘇姿豐密集地發(fā)布了多款A(yù)I軟硬件新品,包括針對(duì)大語(yǔ)言模型設(shè)計(jì)的AI芯片,MI300X。正式拉開(kāi)在AI市場(chǎng),對(duì)英偉達(dá)的正面挑戰(zhàn)。

在硬件參數(shù)上,AMD MI300X擁有多達(dá)13顆小芯片,總共包含1460億個(gè)晶體管,配置128GB的HBM3內(nèi)存。其HBM密度為英偉達(dá)H100的2.4倍,帶寬為英偉達(dá)H100的1.6倍,意味著可加快生成式AI的處理速度。

但可惜的是,這款旗艦AI芯片并沒(méi)有現(xiàn)貨,只是預(yù)計(jì)將于2023年Q4季度全面量產(chǎn)。

而另一競(jìng)爭(zhēng)對(duì)手英特爾,則在2019年就以約20億美元的價(jià)格收購(gòu)了人工智能芯片制造商HABANA實(shí)驗(yàn)室,進(jìn)軍AI芯片市場(chǎng)。

今年8月,在英特爾最近的財(cái)報(bào)電話會(huì)議上,英特爾首席執(zhí)行官Pat Gelsinger表示,英特爾正在研發(fā)下一代Falcon Shores AI超算芯片,暫定名為Falcon Shores 2,該芯片預(yù)計(jì)將于2026年發(fā)布。

除了Falcon Shores 2之外,英特爾還推出AI芯片Gaudi2,已經(jīng)開(kāi)始銷(xiāo)售,而Gaudi3則正在開(kāi)發(fā)中。

只是可惜的是,Gaudi2芯片規(guī)格并不高,難以實(shí)現(xiàn)對(duì)英偉達(dá)H100和A100發(fā)起挑戰(zhàn)。

除了國(guó)外半導(dǎo)體巨頭們大秀肌肉,開(kāi)始了“芯片競(jìng)爭(zhēng)”之外,國(guó)內(nèi)的半導(dǎo)體公司也開(kāi)始了對(duì)AI芯片的研發(fā)。

其中,昆侖芯AI加速卡RG800、天數(shù)智芯的天垓100加速卡、燧原科技第二代訓(xùn)練產(chǎn)品云燧T20/T21,均表示能夠具有支持大模型訓(xùn)練的能力。

在這場(chǎng)以算力為標(biāo)準(zhǔn),以AI大模型為戰(zhàn)場(chǎng)的芯片之爭(zhēng),英偉達(dá)作為AI市場(chǎng)的最大贏家之一,已經(jīng)在芯片設(shè)計(jì)和市場(chǎng)占比等方面展示出它的強(qiáng)大。

但國(guó)產(chǎn)AI芯片雖然稍稍落后,但研發(fā)和擴(kuò)展市場(chǎng)的腳步從未停止,未來(lái)值得期待

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。

英偉達(dá)

6.7k
  • 英偉達(dá)或于12月宣布在泰國(guó)投資計(jì)劃
  • 機(jī)構(gòu):英偉達(dá)將Blackwell Ultra產(chǎn)品更名為B300系列,預(yù)計(jì)2025年將推動(dòng)CoWoS-L增長(zhǎng)

評(píng)論

暫無(wú)評(píng)論哦,快來(lái)評(píng)價(jià)一下吧!

下載界面新聞

微信公眾號(hào)

微博

AI缺芯,英偉達(dá)賣(mài)斷貨

“壟斷”AI芯片的英偉達(dá)。

圖片來(lái)源:Unsplash-Christian Wiediger

文|鋅財(cái)經(jīng) 孫鵬越

編輯|大風(fēng)

8月8日,全球計(jì)算機(jī)業(yè)內(nèi)最重要的圓桌會(huì)議,世界計(jì)算機(jī)圖形學(xué)會(huì)議SIGGRAPH正式召開(kāi)。

NVIDIA創(chuàng)始人兼CEO黃仁勛出席,并帶來(lái)了新一代英偉達(dá)超級(jí)AI芯片GH200。黃仁勛對(duì)自己的新旗艦產(chǎn)品非常有自信,將GH200稱為“世界上最快的內(nèi)存”。

在如今的AI市場(chǎng),英偉達(dá)是堪稱“運(yùn)轉(zhuǎn)整個(gè)AI世界的中心”。不論是OpenAI還是谷歌、META、百度、騰訊、阿里巴巴,所有的生成式AI都極度依賴英偉達(dá)的AI芯片來(lái)訓(xùn)練。

并且,據(jù)媒體報(bào)道,英偉達(dá)AI芯片H100在2023年8月的市場(chǎng)總需求可能在43.2萬(wàn)張左右,而目前一張H100芯片在Ebay上的價(jià)格甚至炒到了4.5萬(wàn)美元,折合人民幣超過(guò)了30萬(wàn)元。

40多萬(wàn)張芯片缺口,單價(jià)4.5萬(wàn)美元,總價(jià)輕輕松松上數(shù)百萬(wàn)美元。

英偉達(dá),正在經(jīng)歷一場(chǎng)比“挖礦時(shí)代”更瘋狂的市場(chǎng)浪潮。

AI芯片,一張難求

所謂的AI芯片,其實(shí)是圖形處理器(GPU),主要作用是幫助運(yùn)行訓(xùn)練和部署人工智能算法所涉及的無(wú)數(shù)計(jì)算。

也就是說(shuō),生成式AI的種種智能表現(xiàn),均來(lái)自于無(wú)數(shù)GPU的堆砌。使用的芯片越多,生成式AI就越智能。

OpenAI對(duì)GPT-4訓(xùn)練細(xì)節(jié)守口如瓶,但據(jù)媒體猜測(cè),GPT-4至少需要8192張H100芯片,以每小時(shí)2美元的價(jià)格,在約55天內(nèi)可以完成預(yù)訓(xùn)練,成本約為2150萬(wàn)美元(1.5億人民幣)。

據(jù)微軟高管透露,為ChatGPT提供算力支持的AI超級(jí)計(jì)算機(jī),是微軟在2019年投資10億美元建造一臺(tái)大型頂尖超級(jí)計(jì)算機(jī),配備了數(shù)萬(wàn)個(gè)英偉達(dá)A100 GPU,還配備了60多個(gè)數(shù)據(jù)中心總共部署了幾十萬(wàn)個(gè)英偉達(dá)GPU輔助。

ChatGPT所需要的AI芯片并不是固定的,而是逐次遞增。ChatGPT越聰明,背后的代價(jià)是所需算力越來(lái)越多。據(jù)摩根士丹利預(yù)測(cè),到了GPT-5大概需要使用2.5萬(wàn)個(gè)GPU,約是GPT-4的三倍之多。

如果想滿足OpenAI、谷歌等一系列AI產(chǎn)品的需求,那么就相當(dāng)于英偉達(dá)一家公司為全世界的AI產(chǎn)品供芯,這對(duì)于英偉達(dá)的產(chǎn)能是個(gè)極大的考驗(yàn)。

雖然英偉達(dá)正在開(kāi)足馬力生產(chǎn)AI芯片,但據(jù)媒體報(bào)道,小型和大型云提供商的大規(guī)模H100集群容量即將耗盡,H100的“嚴(yán)重缺貨問(wèn)題”至少會(huì)持續(xù)到2024年底。

目前,英偉達(dá)作用于AI市場(chǎng)的芯片主要分為H100和A100兩種,H100是旗艦款產(chǎn)品,從技術(shù)細(xì)節(jié)來(lái)說(shuō),H100比A100在16位推理速度大約快3.5倍,16位訓(xùn)練速度大約快2.3倍。

不論是H100還是A100,全部都是由臺(tái)積電合作生產(chǎn),就使得H100的生產(chǎn)受到了限制。有媒體稱,每一張H100從生產(chǎn)到出廠大約需要半年的時(shí)間,生產(chǎn)效率非常的緩慢。

英偉達(dá)曾表示它們?cè)?023年下半年,提高對(duì)AI芯片的供應(yīng)能力,但沒(méi)有提供任何定量的信息。

不少公司和求購(gòu)者都在呼吁,要求英偉達(dá)加大對(duì)晶圓廠的生產(chǎn)數(shù)量,不只和臺(tái)積電合作,而是把更多的訂單交給三星和英特爾。

更快的訓(xùn)練速度

如果沒(méi)辦法提高產(chǎn)能,那么最好的解決辦法就是推出性能更高的芯片,以質(zhì)取勝。

于是乎,英偉達(dá)開(kāi)始頻頻推出新款GPU用來(lái)提升AI訓(xùn)練能力。先是在今年3月,英偉達(dá)發(fā)布了H100 NVL GPU、L4 Tensor Core GPU、L40 GPU、NVIDIA Grace Hopper四款A(yù)I芯片,以滿足生成式AI們?nèi)找嬖鲩L(zhǎng)的算力需求。

在上一代還未量產(chǎn)上市,英偉達(dá)又在8月8日世界計(jì)算機(jī)圖形學(xué)會(huì)議SIGGRAPH上,由黃仁勛發(fā)布了H100的升級(jí)版,GH200。

據(jù)了解,全新GH200 Grace Hopper Superchip基于72核Grace CPU,配備480GB ECC LPDDR5X內(nèi)存以及GH100計(jì)算GPU,搭配141GB HBM3E內(nèi)存,采用6個(gè)24GB堆棧,使用6144位存儲(chǔ)器接口。

GH200最大的黑科技,就是作為世界上第一款配備HBM3e內(nèi)存的芯片,能夠?qū)⑵浔镜谿PU內(nèi)存增加50%。而這也是專門(mén)對(duì)人工智能市場(chǎng)做的“特定升級(jí)”,因?yàn)轫敿?jí)生成式AI往往尺寸巨大卻內(nèi)存容量有限。

據(jù)公開(kāi)資料顯示,HBM3e內(nèi)存是SK海力士的第五代高帶寬內(nèi)存,是一種新型的高帶寬內(nèi)存技術(shù),可以在更小的空間內(nèi)提供更高的數(shù)據(jù)傳輸速率。它的容量為141GB,帶寬為每秒5TB,能分別達(dá)到H100的1.7倍和1.55倍。

從7月份發(fā)布以來(lái),SK海力士就成為GPU市場(chǎng)的寵兒,領(lǐng)先于直接競(jìng)爭(zhēng)對(duì)手英特爾Optane DC和三星的Z-NAND閃存芯片。

值得一提的是,SK海力士一直以來(lái)都是英偉達(dá)的合作伙伴之一,從HBM3內(nèi)存開(kāi)始,英偉達(dá)絕大部分產(chǎn)品都是采用SK海力士的產(chǎn)品。但SK海力士對(duì)于AI芯片所需要的內(nèi)存一直產(chǎn)能堪憂,英偉達(dá)不止一次的要求SK海力士提高產(chǎn)能。

一個(gè)難產(chǎn)大戶遇上另一個(gè)難產(chǎn)大戶,不由讓人擔(dān)心GH200的產(chǎn)能。

NVIDIA官方表示,GH200與當(dāng)前一代產(chǎn)品H100相比,內(nèi)存容量高出3.5倍,帶寬高出3倍;并且,HBM3e內(nèi)存將使下一代GH200運(yùn)行AI模型的速度比當(dāng)前模型快3.5倍。

比H100運(yùn)行AI模型的速度快3.5倍,是否意味著,1張GH200就能相當(dāng)于3.5張H100?一切都還得實(shí)踐操作才能得知。

但目前來(lái)說(shuō),可以肯定的一點(diǎn)就是,作為AI市場(chǎng)的最大供應(yīng)商,英偉達(dá)進(jìn)一步鞏固了自己領(lǐng)先位置,并和AMD和英特爾拉大了差距。

英偉達(dá)的對(duì)手們

面對(duì)43萬(wàn)張AI芯片缺口,沒(méi)有一家公司不動(dòng)心。尤其是英偉達(dá)的最大競(jìng)爭(zhēng)對(duì)手AMD和英特爾,不會(huì)放任其一個(gè)人獨(dú)吞整個(gè)市場(chǎng)。

今年6月14日,AMD董事會(huì)主席、CEO蘇姿豐密集地發(fā)布了多款A(yù)I軟硬件新品,包括針對(duì)大語(yǔ)言模型設(shè)計(jì)的AI芯片,MI300X。正式拉開(kāi)在AI市場(chǎng),對(duì)英偉達(dá)的正面挑戰(zhàn)。

在硬件參數(shù)上,AMD MI300X擁有多達(dá)13顆小芯片,總共包含1460億個(gè)晶體管,配置128GB的HBM3內(nèi)存。其HBM密度為英偉達(dá)H100的2.4倍,帶寬為英偉達(dá)H100的1.6倍,意味著可加快生成式AI的處理速度。

但可惜的是,這款旗艦AI芯片并沒(méi)有現(xiàn)貨,只是預(yù)計(jì)將于2023年Q4季度全面量產(chǎn)。

而另一競(jìng)爭(zhēng)對(duì)手英特爾,則在2019年就以約20億美元的價(jià)格收購(gòu)了人工智能芯片制造商HABANA實(shí)驗(yàn)室,進(jìn)軍AI芯片市場(chǎng)。

今年8月,在英特爾最近的財(cái)報(bào)電話會(huì)議上,英特爾首席執(zhí)行官Pat Gelsinger表示,英特爾正在研發(fā)下一代Falcon Shores AI超算芯片,暫定名為Falcon Shores 2,該芯片預(yù)計(jì)將于2026年發(fā)布。

除了Falcon Shores 2之外,英特爾還推出AI芯片Gaudi2,已經(jīng)開(kāi)始銷(xiāo)售,而Gaudi3則正在開(kāi)發(fā)中。

只是可惜的是,Gaudi2芯片規(guī)格并不高,難以實(shí)現(xiàn)對(duì)英偉達(dá)H100和A100發(fā)起挑戰(zhàn)。

除了國(guó)外半導(dǎo)體巨頭們大秀肌肉,開(kāi)始了“芯片競(jìng)爭(zhēng)”之外,國(guó)內(nèi)的半導(dǎo)體公司也開(kāi)始了對(duì)AI芯片的研發(fā)。

其中,昆侖芯AI加速卡RG800、天數(shù)智芯的天垓100加速卡、燧原科技第二代訓(xùn)練產(chǎn)品云燧T20/T21,均表示能夠具有支持大模型訓(xùn)練的能力。

在這場(chǎng)以算力為標(biāo)準(zhǔn),以AI大模型為戰(zhàn)場(chǎng)的芯片之爭(zhēng),英偉達(dá)作為AI市場(chǎng)的最大贏家之一,已經(jīng)在芯片設(shè)計(jì)和市場(chǎng)占比等方面展示出它的強(qiáng)大。

但國(guó)產(chǎn)AI芯片雖然稍稍落后,但研發(fā)和擴(kuò)展市場(chǎng)的腳步從未停止,未來(lái)值得期待

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。