文丨獵云網(wǎng) 邵延港
最近一周,人工智能帶來了一次又一次顛覆,Open AI、微軟、谷歌先后出手將人工智能卷出了新高度,現(xiàn)在輪到英偉達(dá)在夜里放大招了!
在3月21日晚上11點(diǎn)開始的英偉達(dá)第14次GTC大會(huì)上,英偉達(dá)發(fā)布了ChatGPT設(shè)計(jì)的推理GPU、AI超級(jí)計(jì)算服務(wù)DGX Cloud、突破性的光刻計(jì)算庫cuLitho、加速企業(yè)創(chuàng)建大模型和生成式AI的云服務(wù)NVIDIA AI Foundations等,以及與Quantum Machines合作推出了全球首個(gè)GPU加速量子計(jì)算系統(tǒng)。
值得注意的是,在大會(huì)上英偉達(dá)創(chuàng)始人黃仁勛發(fā)表了一段時(shí)長78分鐘的演講——《切勿錯(cuò)過 AI 的決定性時(shí)刻》,其中就三次強(qiáng)調(diào)“AI的iPhone時(shí)刻已經(jīng)到來”的論調(diào),黃仁勛稱英偉達(dá)從生成式AI變革初期就已經(jīng)參與進(jìn)來。早在2016年,他就向OpenAI親手交付了第一臺(tái)DGX AI超級(jí)計(jì)算機(jī),用于支持ChatGPT的大語言模型的突破。
ChatGPT發(fā)布之后,在很多時(shí)間內(nèi)用戶量就達(dá)到1億,引爆全球的大模型開發(fā)市場,作為AI芯片行家里手的英偉達(dá),勢必要延長觸手,深入布局。
英偉達(dá)在此次大會(huì)上“軟硬兼施”,向AI時(shí)代吹響了沖鋒號(hào)角。
ChatGPT帶來大模型浪潮,英偉達(dá)祭出專用GPU
英偉達(dá)是一家芯片公司,芯片產(chǎn)品的發(fā)布引起諸多關(guān)注,不過,市場將關(guān)注焦點(diǎn)定在了大模型專用的GPU芯片。
為了支持像ChatGPT這樣的大語言模型推理,英偉達(dá)直接祭出專用GPU芯片H100 NVL 。它是基于去年已經(jīng)發(fā)布的H100的改進(jìn)版本,配備雙GPU NVLink,將兩張擁有94GB HBM3顯存的PCIe H100 GPU拼接在一起。基于NVIDIAHopper 架構(gòu)的H100配有一個(gè)Transformer引擎。
黃仁勛稱,相較于目前唯一可以實(shí)時(shí)處理ChatGPT的HGX A100,一臺(tái)搭載四對(duì)H100和雙NVLINK的標(biāo)準(zhǔn)服務(wù)器能將速度提升10倍,并且還可以將大語言模型的處理成本降低一個(gè)數(shù)量級(jí)。黃仁勛也將NVIDIA DGX H100稱作全球客戶構(gòu)建AI基礎(chǔ)設(shè)施的藍(lán)圖。
據(jù)英偉達(dá)公布信息,H100 AI 超級(jí)計(jì)算機(jī)現(xiàn)已開始上線。Oracle Cloud Infrastructure 宣布配備H100 GPU 的新OCCompute 裸機(jī) GPU 實(shí)例在一定條件可用。亞馬遜云科技發(fā)布了即將推出的P5實(shí)例EC2 UltraClusters,其規(guī)??蓴U(kuò)展到2萬個(gè)互連的H100 GPU;微軟Azure發(fā)布了其H100虛擬機(jī)ND H100 v5的私人預(yù)覽版;Meta 現(xiàn)已為其內(nèi)部的AI生產(chǎn)和研究團(tuán)隊(duì)部署了由 H100 驅(qū)動(dòng)的 Grand Teton Al 超級(jí)計(jì)算機(jī);OpenAl 也將在其Azure超級(jí)計(jì)算機(jī)上使用H100來支持其持續(xù)進(jìn)行的AI研究。
此外,英偉達(dá)還發(fā)布了用于AI視頻生成的通用GPUL4,以及針對(duì)圖像生成的L40和為推薦系統(tǒng)和大型語言模型的AI數(shù)據(jù)庫所設(shè)計(jì)Grace Hopper超級(jí)芯片。
值得注意的是,英偉達(dá)自己也打造了大模型突破背后的引擎,即為最新版DGX超級(jí)計(jì)算機(jī)。
據(jù)悉,在2016年8月,英偉達(dá)將制造出來的第一臺(tái)超算DGX-1捐給了OpenAI,并親自題字“致Elon和OpenAI 團(tuán)隊(duì),為了計(jì)算和人類的未來”。
英偉達(dá)最新版本的DGX搭載8個(gè)NVIDIA H100 GPU,它們連接成為一個(gè)巨大的GPU。黃仁勛透露,該款DGX現(xiàn)已全面投入生產(chǎn)。
黃仁勛表示,最初作為AI研究儀器使用的NVIDIA DGX超級(jí)計(jì)算機(jī)現(xiàn)已在世界各地的企業(yè)中全天候運(yùn)行,用于完善數(shù)據(jù)和處理Al。《財(cái)富》100強(qiáng)企業(yè)中有一半都安裝了DGX AI超級(jí)計(jì)算機(jī)。
不過,英偉達(dá)也強(qiáng)調(diào)ChatGPT僅是一個(gè)起點(diǎn)。在ChatGPT發(fā)布之后攪動(dòng)的一場浪潮中,全球范圍內(nèi)涌現(xiàn)出一批進(jìn)軍大模型的企業(yè)。未來大模型專用GPU迎來爆發(fā),英偉達(dá)在短期內(nèi)找不到競爭對(duì)手,或?qū)⑻幱诮^對(duì)的優(yōu)勢地位。
英偉達(dá)帶來了一朵“云”
在“傳統(tǒng)”的發(fā)布芯片硬件之外,此次在軟件產(chǎn)品也格外吸睛,尤其是英偉達(dá)發(fā)布的DGX Cloud人工智能云服務(wù)。
DGX Cloud是一項(xiàng)人工智能超級(jí)計(jì)算服務(wù),它可以讓企業(yè)快速訪問為生成式人工智能和其他開創(chuàng)性應(yīng)用訓(xùn)練高級(jí)模型所需的基礎(chǔ)設(shè)施和軟件。
黃仁勛稱,英偉達(dá)的DGX Cloud服務(wù)可讓企業(yè)和軟件開發(fā)人員通過瀏覽器登入,即可獲得英偉達(dá)的超級(jí)計(jì)算機(jī)DGX的AI算力。英偉達(dá)表示,其云端服務(wù)單個(gè)實(shí)例可由8塊A100或H100芯片與訂制網(wǎng)路技術(shù)組合在一起,采取月租模式。
據(jù)悉,租用的DGX Cloud起價(jià)為每個(gè)實(shí)例每月36999 美元,租金中包括使用帶有八個(gè) Nvidia H100或A100 GPU和640GB GPU內(nèi)存的云計(jì)算機(jī)。價(jià)格包括用于開發(fā)AI應(yīng)用程序和大型語言模型的AI Enterprise 軟件。
目前,英偉達(dá)與微軟Azure、谷歌OCP、Oracle OCI等其他云廠商一起托管DGX Cloud基礎(chǔ)設(shè)施。其中,Oracle Cloud infrastructure是最早合作的云服務(wù)提供商;微軟Azure預(yù)計(jì)將在下個(gè)季度開始托管DGX Cloud,該服務(wù)將很快擴(kuò)展到Google Cloud等。
黃仁勛表示,此次合作將英偉達(dá)的生態(tài)系統(tǒng)帶給云服務(wù)提供商,同時(shí)擴(kuò)大了英偉達(dá)的規(guī)模和影響力。企業(yè)也將能夠按月租用DGXCloud 集群以便快速、輕松地?cái)U(kuò)展大型多節(jié)點(diǎn)訓(xùn)練工作負(fù)載的開發(fā)。
對(duì)于生成式AI,英偉達(dá)也發(fā)布了NVIDIA AI Foundations云服務(wù)系列,它為需要構(gòu)建、完善和運(yùn)行自定義大型語言模型及生成式AI的客戶服務(wù)。
據(jù)悉,AI Foundations云服務(wù)系列包括NVIDIA NeMo,它用于構(gòu)建自定義語言文本-文本轉(zhuǎn)換生成模型;Picasso視覺語言模型制作服務(wù),它適用于構(gòu)建使用授權(quán)或?qū)S袃?nèi)容訓(xùn)練而成的自定義模型;BioNeMo,則用于藥物研發(fā)行業(yè)的研究人員。
對(duì)于英偉達(dá)而言,DGX Cloud 的出現(xiàn)代表英偉達(dá)向云優(yōu)先戰(zhàn)略的轉(zhuǎn)變,英偉達(dá)正在向外界傳達(dá)他們現(xiàn)在既是一家硬件制造商,也是一家軟件公司。
AI時(shí)代,英偉達(dá)的野心
無論是專為大模型研發(fā)的GPU,還是DGX Cloud,英偉達(dá)無一不再展示其在AI時(shí)代的“野心”。
黃仁勛在演講中表示,加速計(jì)算和AI的出現(xiàn)恰逢其時(shí)。摩爾定律正在放緩,各個(gè)行業(yè)正在應(yīng)對(duì)可持續(xù)發(fā)展,生成式AI以及數(shù)字化等強(qiáng)大的動(dòng)態(tài)挑戰(zhàn)。各個(gè)行業(yè)的企業(yè)正在競相進(jìn)行數(shù)字化轉(zhuǎn)型,希望成為軟件驅(qū)動(dòng)的技術(shù)公司,成為行業(yè)顛覆者而不是被顛覆者。
英偉達(dá)發(fā)布的一整套軟硬件設(shè)施,可以讓客戶可以更快、更容易地使用人工智能應(yīng)用程序,站在更多創(chuàng)業(yè)公司的背后提供服務(wù)。
尤其是ChatGPT商務(wù)出現(xiàn)加速了AI的商業(yè)化落地,英偉達(dá)面對(duì)的是一個(gè)無比巨大的蛋糕,另一方面,AI也將帶來對(duì)當(dāng)前行業(yè)的顛覆。據(jù)悉,Adobe正在與英偉達(dá)一起構(gòu)建一整套用于未來創(chuàng)作工作的新一代Al;Shutterstock也在與英偉達(dá)一起訓(xùn)練一個(gè)生成式文本-3D轉(zhuǎn)換基礎(chǔ)模型,以簡化詳細(xì)3D資產(chǎn)的創(chuàng)建。
英偉達(dá)此次深夜放大招的最終目的是要通過自己將AI帶到各行各業(yè),但英偉達(dá)的野心并不局限于此。
英偉達(dá)發(fā)布了一款名為cuLitho的計(jì)算光刻庫,也將為半導(dǎo)體行業(yè)帶來新的革命。黃仁勛稱,隨著當(dāng)前生產(chǎn)工藝接近物理學(xué)的極限,cuLitho 將助力ASML、TSMC和Synopsis等半導(dǎo)體領(lǐng)導(dǎo)者加速新一代芯片的設(shè)計(jì)和制造,這項(xiàng)突破將加速計(jì)算引入到計(jì)算光刻領(lǐng)域。
黃仁勛稱,計(jì)算光刻是芯片設(shè)計(jì)和制造領(lǐng)域中最大的計(jì)算工作負(fù)載,每年消耗數(shù)百億CPU小時(shí)。大型數(shù)據(jù)中心24×7全天候運(yùn)行,以便創(chuàng)建用于光刻系統(tǒng)的掩膜板。這些數(shù)據(jù)中心是芯片制造商每年投資近2000億美元的資本支出的一部分。cuLitho能夠?qū)⒂?jì)算光刻的速度提高到原來的40倍。
此外,除了用于計(jì)算光刻的cuLitho,黃仁勛宣布英偉達(dá)已更新了100個(gè)加速庫,包括用于量子計(jì)算的cuQuantum和新開源的CUDA Quantum和用于組合優(yōu)化的cuOpt等。黃仁勛表示,全球英偉達(dá)生態(tài)目前已有400萬名開發(fā)者、4萬家公司和英偉達(dá)初創(chuàng)加速計(jì)劃中的 1.4萬家初創(chuàng)企業(yè)。
截至美東時(shí)間3月21日,英偉達(dá)市值6471億美元,是全球第五大科技股,到AI時(shí)代,英偉達(dá)還將狂飆一段時(shí)間。