文|壹DU財經(jīng) 辰樹
編輯|小影
2024年618,傳統(tǒng)電商行業(yè)不再喧囂,但大模型市場卻開啟了慘烈的“價格戰(zhàn)”,甚至部分企業(yè)直接免費送大模型服務。
5月15日,字節(jié)跳動宣布,豆包主力模型企業(yè)市場定價為0.0008元/千Tokens,0.8厘可處理1500多個漢字,比行業(yè)便宜99.3%。
一周后,阿里云也對外宣布,通義千問GPT-4級主力模型Qwen-Long的API輸入價格降至0.0005元/千Tokens,直降97%。
阿里云官微
阿里云卷入“價格戰(zhàn)”后,百度、騰訊云、科大訊飛等企業(yè)也接連宣布自家的大模型降價。其中百度甚至宣布,兩款基礎模型可免費調(diào)用。
不可否認的是,隨著技術逐漸成熟,大模型的成本正不斷下探。為了盡快俘獲更多企業(yè)客戶,拓寬市場影響力,上游算力提供商確實需要盡力降價。
然而需要注意的是,盡管大模型成本正逐步下探,但目前大部分企業(yè)的大模型業(yè)務依然面臨算力、人力成本高企的挑戰(zhàn),沒能盈利。在此背景下,上游算力提供商不斷降價,甚至免費送大模型,顯得十分反常。
這種非理性的價格戰(zhàn),其實凸顯出了上游企業(yè)亟待通過讓利,打通大模型商業(yè)閉環(huán)的內(nèi)在焦慮。
01 價格戰(zhàn)背后,大模型商業(yè)困局難解
2023年以來,隨著ChatGPT爆火,諸多科技公司都看到了AI大模型蘊含著巨大的商業(yè)價值,因而加碼相關業(yè)務。2024年3月,國家數(shù)據(jù)局局長劉烈宏透露,中國10億參數(shù)規(guī)模以上大模型數(shù)量已超100個。
然而隨著越來越多企業(yè)入局相關產(chǎn)業(yè),大模型商業(yè)模式不健全,成本高、落地難、下游企業(yè)持觀望態(tài)度等問題愈發(fā)凸顯。
由于需要采購高性能計算機,并且需要進行模型訓練,大模型的成本異常高昂。以OpenAI為例,其訓練GPT-4的FLOPS約為2.15e25,一次訓練成本為6300萬美元。The Information報道,2022年,OpenAI虧損約為5.4億美元左右,約擴大一倍。
目前,大部分企業(yè)都意識到了大模型的參數(shù)越多,商業(yè)想象力越大,因而持續(xù)加碼模型訓練。不過問題也隨之而來,那就是大模型僅僅問世兩年時間,下游創(chuàng)收手段十分有限。
整體而言,大模型有兩種創(chuàng)收模式,一是直接向用戶收取訂閱費,二是向開發(fā)者收取API調(diào)用費。比如,2023年初,OpenAI推出了會員訂閱服務ChatGPT Plus,費用為20美元/月,可使用基于GPT-4的模型,并且提供更快的響應時間、優(yōu)先訪問等權限。
不過,據(jù)Reddot聯(lián)合創(chuàng)始人Pierre Herubel測算,即使以每月?lián)碛?00萬訂戶估計,ChatGPT Plus每年或只能為OpenAI帶來2.4億美元左右收入,很難幫助公司扭虧為盈。
因此,目前以OpenAI為代表企業(yè)的發(fā)力重點,是向企業(yè)收取API調(diào)用費。參照云計算的經(jīng)驗,外部的企業(yè)從零開始訓練大語言模型非常困難,傾向于采購成熟的AI大模型技術,一旦這些企業(yè)探索出具備想象力的商業(yè)模式,即可反哺上游算力提供商,進而實現(xiàn)多方共贏。
對此,2023年11月,百度創(chuàng)始人兼CEO李彥宏曾表示,不斷地重復開發(fā)基礎大模型是對社會資源的極大浪費,“AI原生時代,我們需要100萬量級的AI原生應用,但是不需要100個大模型?!?/p>
02 算力提供商作出表率,但B端企業(yè)仍持觀望態(tài)度
由于大部分大模型算力提供商都是平臺型企業(yè),推出大模型技術后,這些企業(yè)紛紛在內(nèi)部試水相關技術的商業(yè)化,以圖給下游客戶做出商業(yè)化表率。
比如,2023年阿里云峰會上,時任阿里巴巴集團董事會主席兼CEO、阿里云智能集團CEO張勇表示:“阿里巴巴所有產(chǎn)品未來將接入‘通義千問’大模型,進行全面改造?!?/p>
以釘釘為例,接入大模型后,其支持AI生成推廣文案、繪圖方式創(chuàng)建應用、視頻會議中生成摘要等功能。釘釘總裁葉軍認為,大模型將會讓釘釘?shù)氖杖朐鲩L百分之幾十。
無獨有偶,過去一段時間,騰訊也積極探索AI技術的商業(yè)化應用。2023年財報中,騰訊對外表示:“廣告AI模型的改進顯著提升了精準投放的效果…… 這些發(fā)展帶動了高質(zhì)量的收入來源,推動毛利增長 23%?!?/p>
自有業(yè)務挖掘出AI的商業(yè)價值后,上游算力提供商正致力于針對垂直行業(yè)的細分需求,提供定制大模型能力。
比如,2023年6月,騰訊云宣布開啟“騰訊云行業(yè)大模型生態(tài)計劃”,致力于推進大模型在產(chǎn)業(yè)領域的創(chuàng)新和落地。據(jù)悉,騰訊云已為傳媒、文旅、政務等10余個行業(yè)提供了超50個大模型行業(yè)解決方案。
然而需要注意的是,平臺型企業(yè)大多擁有自研大模型技術,無論是試錯還是使用成本都更低,往往只會對外宣傳商業(yè)路徑清晰的大模型落地案例。
反觀外部的企業(yè)需要采購上游的大模型技術,探索成本相對更高,并且商業(yè)模式不清晰,很難擁有足夠的積極性。見實團隊披露的《AI應用需求與付費意愿調(diào)研報告》顯示,46.2%的企業(yè)AI預算在1萬元以下,另有22.2%和24%的企業(yè)預算分別為1萬-5萬元以及5萬元-10萬元,這些中腰部企業(yè)沒有足夠的預算探索AI。
此前,大部分主力模型產(chǎn)品的API輸入價格不菲,比如,Qwen-Long為0.02元/千tokens,1萬元只可以購買5億個tokens。如果一個產(chǎn)品有500萬月活,1萬元的預算,一個月平均只能供每個用戶使用100個tokens,顯然不夠。
03 成本雖屢屢下探,但算力提供商已急不可耐
顯而易見,當下限制大模型B端商業(yè)化落地的主要障礙,就是API成本過高,限制了B端企業(yè)探索相應的商業(yè)閉環(huán)。因此,目前算力提供商的發(fā)力方向,就是致力于通過技術手段,壓低大模型的成本,降低B端企業(yè)的使用成本。
開頭提到,字節(jié)跳動旗下豆包主力模型企業(yè)市場定價為0.0008元/千Tokens,比行業(yè)便宜99.3%。對此,火山引擎總裁譚待表示:“豆包模型的超低定價,來源于我們有信心用技術手段優(yōu)化成本,而不是補貼或是打價格戰(zhàn)爭奪市場份額。”
無獨有偶,2024年5月6日,深度求索開源了第二代MoE模型DeepSeek-V2,性能更強,訓練成本更低。據(jù)悉,DeepSeek可節(jié)省42.5%訓練成本,減少93.3%的KV緩存,最大吞吐量提高5.76倍。整體而言,DeepSeek-V2消耗的顯存(KV Cache)只有同級別Dense模型的1/5-1/100。
不過,這并不意味著當下大模型行業(yè)的價格戰(zhàn)十分正常。2024年5月,談及大模型的發(fā)展趨勢時,零一萬物CEO李開復接受采訪時表示:“未來整個行業(yè)的推理成本每年降低10倍是可以期待的,而且這個趨勢是必然的?!蔽磥?,大模型的成本將呈階梯狀下探,但目前大模型的價格卻斷崖式下探,甚至部分企業(yè)免費送,降價幅度遠超上游成本降幅。
上游算力提供商之所以如此內(nèi)卷,很大程度上都是希望俘獲更多的B端企業(yè),一方面實現(xiàn)規(guī)模效應,另一方面,讓B端企業(yè)無負擔地探索良性的商業(yè)模式。對此,譚待表示:“大的使用量,才能打磨出好模型,也能大幅降低模型推理的單位成本……大模型從以分計價到以厘計價,將助力企業(yè)以更低成本加速業(yè)務創(chuàng)新?!?/p>
盡管激烈的價格戰(zhàn)之下,大模型已經(jīng)進入“免費時代”,但其實大部分上游算力提供商為了后續(xù)創(chuàng)收,都留有更為隱晦的收費手段。
目前,大部分大模型僅推理用的token降價,而訓練和部署成本依然不低。比如,阿里的qwen-turbo 模型百萬個token推理只要2元,若是訓練,就需要30元,部署時,每月需要2萬元。
由此來看,大模型進入“免費時代”,很大程度上其實只是一個宣傳意義上的噱頭。如果下游企業(yè)想要用上成套大模型服務,那么不能不付出更高的使用成本。
而之所以上游算力提供商僅僅降低推理用的token成本,主要是因為通過內(nèi)部應用,其對于大模型的商業(yè)價值足夠自信,希望降價的噱頭起到引流的作用。
參照云計算價格戰(zhàn)的經(jīng)驗,此番大模型價格戰(zhàn)或許可以吸引更多下游企業(yè)認真審視大模型,有望基于相關技術探索出更多良性的商業(yè)模式。