文|數(shù)智前線 周享玥 趙艷秋
編輯|?;?/p>
中工互聯(lián)董事長智振,最近經(jīng)常奔波于前往各地的高鐵上,見客戶、簽訂戰(zhàn)略合作、推進大模型落地,“比起一個月前更忙了”。
3月中旬,智振曾向數(shù)智前線分享自己的工作狀態(tài)——“一天就睡5小時,光戰(zhàn)略合作都忙不過來。今年的目標是面向能源等工業(yè)領(lǐng)域,落地至少幾百、上千個大模型項目。”
而這種忙碌狀態(tài)同樣存在于數(shù)智前線接觸的多位行業(yè)大模型落地服務商中。業(yè)界觀察,行業(yè)大模型,正在以一種意想不到的速度,加緊落地。
水面之上,或許仍舊平靜無波,但水面之下,早已激流暗涌?!艾F(xiàn)在大家還在水面下,下半年應該都會浮上來一些。”在金融行業(yè)做大模型落地的寬客進化CTO王舸說。
01 “每周以10個項目的數(shù)量增長”
被業(yè)界視作“大模型落地元年”的2024年,剛過去4個月,已經(jīng)涌現(xiàn)出火熱氛圍。
“去年,主要是試的人和看的人比較多,愿意付費的人很少?!痹茊柨萍悸?lián)合創(chuàng)始人茆傳羽告訴數(shù)智前線,但今年,付費人群明顯多了起來。
一位行業(yè)人士觀察,以2024年春節(jié)開工后第一天,國資委召開“中央企業(yè)人工智能專題推進會”為風向標,大量央國企開始大面積尋找合適的業(yè)務場景,市場氛圍被迅速帶動,大模型服務商們接洽的項目也在快速增長。
“客戶現(xiàn)在熱情似火?!盇I智能化服務企業(yè)眾數(shù)信科創(chuàng)始人兼CEO吳炳坤說,去年,都是他們主動去找客戶,但今年元旦過后,已基本變成“被動接洽需求”。2024年一季度尚未結(jié)束,這家公司處在PoC、走合同、實施交付等不同環(huán)節(jié)的需求數(shù)已有上百個,遠高于去年10余家的量級,且每周在以10個的數(shù)量新增,“我們不得不開始篩選”。
寬客進化CTO王舸則透露,去年他們在大模型上幾乎沒有落地項目,但今年,他們已經(jīng)簽約好幾個百萬級的合同,涉及金融、電力、運營商等多個行業(yè)。其中,一些相對淺層次的需求,如大模型與傳統(tǒng)標準作業(yè)流程的結(jié)合,目前落地相對良好,但一些更深層次的需求,如專家經(jīng)驗與大模型結(jié)合,還處于初級階段,“這塊的項目現(xiàn)在正在研發(fā)階段,下半年可能會有一些落地案例出來?!?/p>
“圍繞市場熱點,主動找來的客戶也有不少?!蓖豸催M一步說,比如個性化寫作場景,又如一些企業(yè)提出,是否能將數(shù)據(jù)要素和大模型這兩個今年最為火熱的概念結(jié)合起來?!氨热鐢?shù)據(jù)入表,數(shù)據(jù)分級、分類,數(shù)據(jù)怎么溯源,以及數(shù)據(jù)需求方在交易所進行數(shù)據(jù)交易時,怎么在成千上萬的數(shù)據(jù)產(chǎn)品中自動匹配需要的數(shù)據(jù),這些都是大家在構(gòu)想和探索是否能用上大模型的方向?!?/p>
“大模型的加持,對現(xiàn)在大熱的‘數(shù)據(jù)要素×’三年規(guī)劃來說,是一個巨大的催化劑,能讓很多客戶很快地感受到數(shù)據(jù)帶來的價值?!崩顺痹瓶偨?jīng)理顏亮說。
一些聚焦在更為垂直領(lǐng)域的大模型落地服務商,也明確感知到了變化。
云蝠智能創(chuàng)始人魏佳星告訴數(shù)智前線,他們主攻的基于大模型的智能客服業(yè)務線,今年比去年同期增長了30%的訂單。而且今年的增長要比去年更加穩(wěn)定。“去年3月,受大模型熱度刺激,我們?nèi)〉昧瞬诲e的增速,但很快又在4月回落,但今年4月,不僅維持住了3月的增勢,還繼續(xù)保持了增長?!?/p>
高新興機器人首席技術(shù)官劉彪則透露,機器人已成為大模型最快落地的領(lǐng)域之一。今年底左右,他們結(jié)合大模型的機器人產(chǎn)品將可能全面商業(yè)化。目前,在工業(yè)領(lǐng)域,高新興巡檢機器人在解決“跑冒滴漏”的難題,處于試用階段;在物業(yè)等場景的煙火檢測已商用落地。
而一些服務商,已經(jīng)考慮規(guī)范化復制的問題。中工互聯(lián)董事長智振透露,今年開始,他們將過去一年探索出的能做的方向全都產(chǎn)品化了,“一旦產(chǎn)品化,推廣復制就會很快”。
吳炳坤也告訴數(shù)智前線,由于產(chǎn)品化,他們一些客戶的交付落地時間,已經(jīng)從過去的三個月,縮短到半個月。而今年,這家公司的目標,也不再是要拿下多少個客戶,而是鎖定兩大行業(yè)、6個細分子行業(yè),做15個標品化的產(chǎn)品出來。
“今年的大模型應用肯定會爆發(fā),這個速度會比想象的要快得多?!敝钦裾f。
不過也有資深人士用“方興未艾”來形容大模型目前的落地勢頭?!敖衲晡覀兛吹胶芏囝^部企業(yè)都動了起來,但大多都還是一些單點的應用或幾個場景的組合?!币恍┤耸勘硎荆蠹叶荚诘却鼵端和B端的殺手級應用出現(xiàn)。
浪潮云CEO顏亮認為,從單點到全流程植入才能帶來質(zhì)的變化,可能需要1~2年,其中關(guān)鍵是大模型要經(jīng)過周期性迭代,才能達到可用。“最多兩年時間。競爭會促成大家的互相學習和投入,我們感知到,2024年用戶在大模型上的投入,是2023在3~4倍以上?!?/p>
02 “在定價上遇到了‘挫折’”
春節(jié)過后,百度智能云渠道生態(tài)部總經(jīng)理陳之若他們發(fā)現(xiàn)一個現(xiàn)象,一些大模型服務商,在幫客戶做完P(guān)oC后,在定價上遇到了挫折。
“服務商起初自己也沒有概念,打個比方假設以前產(chǎn)品賣兩萬塊錢,加了大模型后定價三萬五,服務商覺得是比較合理的,因為我給你降本增效了,但客戶反饋‘效果不錯但貴’?!庇谑牵蠹议_始掰扯定價、交付和服務的事情。
這對于服務商來說,既是挑戰(zhàn),也是一個積極信號,因為大模型開始邁出商業(yè)化的第一步了。
定價背后,也有關(guān)于ROI(投資回報率)的考量。
“客戶對于最終的產(chǎn)出物其核心關(guān)注的點就是ROI?!辈墉t說。但大模型銷售的更多的是服務,看不見摸不著,客戶不容易算出ROI。
“這就需要服務商去幫客戶把ROI明確出來。”軟通動力羅晟告訴數(shù)智前線。比如,給企業(yè)售后場景賦能。原來一個售后人員即使經(jīng)過好幾天的培訓,想要精準找到每個產(chǎn)品的售后問題,也要花十幾分鐘。但現(xiàn)在有了大模型助手,可以秒級輔助他們找到問題。這對于客戶來說,就是一個ROI比較高突出的場景。
而曹璽介紹,當下ROI的測算需要拿效果說話,有時甚至是較為直觀的計算。比如,工作效率的具體提升,獲新客戶與客戶轉(zhuǎn)化的量化、購買數(shù)字人的成本比對。
幾位行業(yè)人士談到了大模型替代員工的敏感問題?!拔覀儾⒉皇钦f,大模型能減掉他們多少人,而是減少員工一些程序性的事物,提高效率,去做更有價值的事?;蛘呖梢杂懈噘Y源做新業(yè)務?!币晃淮竽P头丈逃^察,他們遇到一家醫(yī)院科室主任抱怨,自己手下那么多博士,整天在辦公室寫病歷,根本接觸不到患者。他們就想解決這個問題。
03 大模型場景落地要“短平快”
場景的選擇,同樣考驗服務商的能力。吳炳坤告訴數(shù)智前線,過去一年間,行業(yè)內(nèi)不乏“叫好不叫座”的情況?!按蠹业膱鼍靶枨蠛芏?,但都是在做PoC,真正要讓客戶愿意付錢,還有蠻大的門檻要邁過去?!?/p>
智振則總結(jié),“一年能回本,客戶很容易接受;三五年回本,客戶就要考慮考慮;7年回本,肯定得政策強制要求了。”這要求他們必須首先找到投資回報高的點來做。
為此,不少服務商都會選擇小點切入的策略,快速形成閉環(huán)來看效果。
比如新致軟件,最開始實際是以咨詢師的身份,切入到膳魔師項目中,并在多輪溝通和探討中,發(fā)現(xiàn)了老板在了解公司運營情況時耗時過長的痛點。通過在工作群中引入數(shù)字人,收集對話素材,并進行模型微調(diào)后,實現(xiàn)對管理層需求的快速響應。
“原來一個數(shù)據(jù)報表的訴求,大概需要2~3周,現(xiàn)在可以縮短到一天?!辈墉t告訴數(shù)智前線,這大大提升了管理層的決策效率。而在內(nèi)部跑通幾個場景后,新致軟件又幫膳魔師進一步打通了外部場景,落地了to c的7×24小時的AI助理。
“我們現(xiàn)在所有項目都是按‘短平快’的方式去做實施。我們會幫客戶把一個大的需求,切到一個個比較小的點,逐點試錯,逐點突破,而不是像以前做軟件一樣,一個項目做上半年一年,客戶才能看到效果?!辈墉t告訴數(shù)智前線,這樣既保證客戶能快速看到效果,也能根據(jù)客戶反饋,更快發(fā)現(xiàn)問題,“少走彎路”。
“你要知道客戶到底在做一門怎么樣的生意,他最想達到的是流量盤活、轉(zhuǎn)化率還是更精準的獲客?你要不斷的去了解客戶業(yè)務訴求,同時要不斷去做復盤和打磨。”曹璽說。
眾數(shù)信科也在場景選擇上提出了“小切口、大縱深”的策略。而為了避免大模型前期落地效果與客戶預期之間因偏差而導致客戶中途放棄的情況,有經(jīng)驗的大模型服務商,在鎖定某個場景后,還會主動降低客戶的心理預期。
中工互聯(lián)智振也告訴數(shù)智前線,大家現(xiàn)在的想法都是優(yōu)先把一個點打透,然后再基于這些成功的經(jīng)驗,做全鏈條的整合?!艾F(xiàn)在已經(jīng)有客戶與我們做了兩年的規(guī)劃,一點一點來做?!敝钦裾f。
技術(shù)和服務的延續(xù)性也被重點強調(diào)?!拔医?jīng)常被問到,大模型技術(shù)發(fā)展那么快,我們之前的選擇的大模型會不會過時?為它做的定制、數(shù)據(jù)標注會不會失效?”百度智能云AI與大數(shù)據(jù)總經(jīng)理忻舟說。
吳炳坤也告訴數(shù)智前線,大模型迭代太快了,但企業(yè)內(nèi)部又基本沒有專門的AI人才。這就要求服務商要形成一種新的思維——大模型時代的項目不再是交鑰匙工程,而是需要提供教練式的陪跑服務,“陪著客戶不斷優(yōu)化它自有的模型”。
04 大模型落地成本在下降
企業(yè)一旦在某個場景驗證模型的價值后,第二步關(guān)心的就是如何降低成本。
“現(xiàn)在最常見的成本區(qū)間,主要有兩級?!睂捒瓦M化CTO王舸告訴數(shù)智前線,一些簡單應用,比如個性化寫作、在傳統(tǒng)BPM流程中串接大模型能力等,一般可以直接調(diào)用API,成本較低,二三十萬元即可實現(xiàn)落地。另一極則是一些需要與專家經(jīng)驗深度綁定的項目,會有私有化部署要求,成本普遍在百萬元起,甚至四五百萬。
“二三十萬元的市場,今年會非常卷,而跟業(yè)務深度綁定的市場,是大家想做,但目前做起來還比較困難的市場?!蓖豸凑f,尤其是需要私有化的項目,算力會是一個比較大的困難。
實際上,為了解決算力難和成本過高的問題,業(yè)界目前已經(jīng)探索了一些方法。比如,企業(yè)除了使用純私有化的模式,也可以選擇“公有云的私有化”模式,即在公有云上開一個私有化的環(huán)境,達到節(jié)省成本的目的。
“目前,像銀行等有著嚴格數(shù)據(jù)不出域要求的金融企業(yè),基本都還是采用前一種私有化,而在零售、酒店和文旅等數(shù)據(jù)管控沒那么嚴格的行業(yè),則有不少企業(yè)傾向于選用后一種模式?!毙轮萝浖墉t告訴數(shù)智前線。
算力不足的情況下,通過CPU進行推理,也被不少人視為一個可選方案?!?B以下的模型,一般的推理場景,CPU目前是能夠滿足的。模型再大一點,30B~70B,速度會明顯變慢,但一些不需要實時交互的場景,CPU也是一個比較好的解決方案?!蓖豸凑f。
更重要的是,模型輕量化的趨勢,以及MoE概念的火熱,也降低了企業(yè)客戶對算力資源的訴求。
可以看到,通用大模型參數(shù)雖然已從上千億走到萬億級,但具體到行業(yè)落地上,卻不是參數(shù)規(guī)模越大越好。在海外,Meta發(fā)布的Llama系列模型,從70億、130億、330億到700億不等。在國內(nèi),百度、阿里、百川等都發(fā)布輕量級大模型。
“很多場景其實并不需要全知全能的能力,而是需要一個行業(yè)專家來解決一些專業(yè)的問題?!眳潜ふf。根據(jù)他的經(jīng)驗,在很多垂類場景中,通過剪枝蒸餾等手段,壓縮出一個百億級的基礎(chǔ)模型,最大程度保留行業(yè)通識和能力,再結(jié)合企業(yè)的私有數(shù)據(jù),也能實現(xiàn)千億級的效果,推理成本更低,使用也更簡單,是目前企業(yè)歡迎的做法。
“在行業(yè)中,我們認為7B-70B性價比最佳?!崩顺痹艭EO顏亮透露。
吳炳坤告訴數(shù)智前線,通過模型輕量化,他們已將包含算力、模型、應用等在內(nèi)的落地成本做到幾十萬到小一兩百萬元的成本。這也是不少中腰部企業(yè)普遍能接受的價格區(qū)間。智振則透露,現(xiàn)在做大模型私有化部署,成本已降到百萬元起,一些小的嵌入式產(chǎn)品,比如1.6B參數(shù)、能放到一臺單機上的模型,甚至可以做到5萬元起。
一些企業(yè)探索MoE(混合專家系統(tǒng)),以實現(xiàn)用更合適的性價比。MoE的全稱是Mixture of Experts,被認為十分符合人類社會的分工概念,它通過“專家+路由”的機制,將不同問題交給對應領(lǐng)域的專家來解決,理論上能在算力成本不增加的前提下,顯著提升Transformer模型的性能。
去年年中,GPT-4曾一度被傳由8或16個MoE構(gòu)成,這一概念隨之在業(yè)內(nèi)引起關(guān)注。幾天前,騰訊混元宣布完成架構(gòu)升級到MoE。
智振告訴數(shù)智前線,大模型會和第二次工業(yè)革命中興起的電器一樣,“最終并非一個電器通用,而是會涌現(xiàn)出各種各樣的電器,從燈泡到電飯煲,它只會取決于不同場景下怎么樣的性價比最高,怎么樣的功能最強,客戶接受度最高?!?/p>
李彥宏則在此前的一場演講中指出,未來大型的AI原生應用基本都是 MoE 架構(gòu)。
值得關(guān)注的是,多位業(yè)內(nèi)人士告訴數(shù)智前線,MoE目前仍處于發(fā)展早期,還存在不少挑戰(zhàn)。一些人士認為,它的技術(shù)復雜性太高,投入產(chǎn)出比不太匹配。也有人士表示,MoE需要資源較多,在響應速度和算力占用方面還有較大提升空間。
過去半年,大模型的技術(shù)進步速度極快,也推動行業(yè)落地的大潮在快速演進。