正在閱讀:

2024,會(huì)成為小模型的當(dāng)打之年嗎?

掃一掃下載界面新聞APP

2024,會(huì)成為小模型的當(dāng)打之年嗎?

如何用更少的數(shù)據(jù),更少的能源訓(xùn)練出更好用的模型,就成為了未來(lái)的重中之重。

圖片來(lái)源:界面新聞 匡達(dá)

文|新火種 小巖

編輯|美美

乘著ChatGPT爆火的東風(fēng),2023年成為了當(dāng)之無(wú)愧的“大模型爆發(fā)之年”。跟隨ChatGPT的腳步,諸多大廠和知名企業(yè)推出了自己的AI大模型。也正因此,大模型賽道的競(jìng)爭(zhēng)變得異常激烈,燒錢的勢(shì)頭也變得異常兇猛。

不過,這樣的趨勢(shì)很可能在2024年產(chǎn)生變化。每個(gè)事物的發(fā)展都要經(jīng)歷“產(chǎn)生,發(fā)展,高潮,低谷”的階段,已經(jīng)在2023年大放異彩,涌現(xiàn)無(wú)數(shù)高光時(shí)刻的大模型很可能在2024年漸漸冷卻,褪掉光環(huán),而小模型,則有可能成為今年的破局之道。

“大模型雖然亮眼,但企業(yè)對(duì)這些技術(shù)的采用幾乎沒有實(shí)質(zhì)性的增長(zhǎng)”。

眾所周知,在高新技術(shù)和燒錢測(cè)試的加持下,大模型產(chǎn)品的表現(xiàn)變得十分突出,整個(gè)賽道也卷的出奇。但可惜的是,這些花大力氣砸出來(lái)的優(yōu)秀大模型產(chǎn)品很難成功變現(xiàn)。

根據(jù)印度IT巨頭Infosys的最新發(fā)現(xiàn),只有6%的歐洲公司通過生成式AI用例創(chuàng)造了商業(yè)價(jià)值。麥肯錫也在2023年的一份報(bào)告中得出結(jié)論,“盡管生成式AI的使用可能會(huì)刺激其他人工智能工具的采用,但我們認(rèn)為,企業(yè)對(duì)這些技術(shù)的采用幾乎沒有實(shí)質(zhì)性的增長(zhǎng)?!?/p>

而資本市場(chǎng)對(duì)于大模型AI的態(tài)度也不樂觀。從融資規(guī)模來(lái)看,生成式AI的投資浪潮是一次“短暫繁榮”,盡管頭部以及率先搶占先機(jī)的AI公司獲得了不少資本的青睞,但后續(xù)的AI公司如果想要收獲資金,并不容易。根據(jù)Crunchbase數(shù)據(jù)顯示,2023 年,人工智能獨(dú)角獸公司的融資大幅下降,僅為 2021 年市場(chǎng)高峰時(shí)的25 %左右;全球最活躍的9大 VC 在AI獨(dú)角獸公司的投資也是大幅下降。

究其原因,這并不難理解。潮水退去,方知誰(shuí)在裸泳。投資者都是趨利避害的,自然想看到自己投資的AI公司產(chǎn)出盡可能多的利潤(rùn)。在這種情況下,針對(duì)AI的投資泡沫會(huì)越來(lái)越少,據(jù)此,AI公司試錯(cuò)的成本將大大提高。

大模型發(fā)展即將受阻,小模型能否順勢(shì)而為,迎來(lái)自己的井噴元年?

在這種情況下,AI模型需要朝著效率更高,成本更低的方向去發(fā)展。從這個(gè)角度去說(shuō),小模型很可能比大模型更實(shí)用,更方便。

Snorkel AI曾做過一個(gè)試驗(yàn),分別用GPT-3微調(diào)和自己搭建的小模型來(lái)訓(xùn)練一個(gè)法律領(lǐng)域的垂直模型。GPT-3的微調(diào)和搭建成本是7418美元,10000推理的花費(fèi)是173美元,而自己搭建的小模型成本僅為1915美元,10000次推理也只是花費(fèi)了0.26美元。從正確率來(lái)看,GPT-3微調(diào)的垂直模型正確率為71.4 %,小模型則為71.3 %。

值得一提的是,GPT-3的參數(shù)量很大,是小模型的1400倍。我們當(dāng)然不能因?yàn)镚PT-3微調(diào)的正確率與小模型的正確率相似就妄下結(jié)論,認(rèn)為“參數(shù)量沒用”。不過,這或許就是“殺雞焉用牛刀”的道理,就像《華爾街日?qǐng)?bào)》提到的那句玩笑,用GPT-4總結(jié)電子郵件就像“讓蘭博基尼送披薩”。畢竟,在很多場(chǎng)景下,用戶需要的并沒有那么多。

目前,國(guó)內(nèi)的AI領(lǐng)域也在面臨相同的狀況。

如今,國(guó)內(nèi)已經(jīng)發(fā)布的所謂“大模型”超過200個(gè),“百模大戰(zhàn)”進(jìn)行的如火如荼。而處于頭部的幾個(gè)大模型都曾宣稱自己的參數(shù)規(guī)模超千億級(jí)別,有的甚至達(dá)到了萬(wàn)億的規(guī)模。

但規(guī)模只要夠大,就一定夠好嗎?未必。百度的李彥宏曾經(jīng)說(shuō)過,“100多個(gè)大模型浪費(fèi)社會(huì)資源……尤其在中國(guó)算力還受限制情況下,企業(yè)應(yīng)該去探索各行各業(yè)的應(yīng)用結(jié)合,全新的 APP產(chǎn)品可能性等?!?/p>

事實(shí)上,與李彥宏持有相同觀點(diǎn)的人并不在少數(shù)。相較于要把AI模型的規(guī)模不斷做大這件事,大家更應(yīng)該關(guān)注如何將模型更好的應(yīng)用到實(shí)處。不是大模型做不起,而是小模型更具性價(jià)比。

做小模型的本質(zhì),其實(shí)是在做離用戶更近的模型。

更重要的是,從某種層面來(lái)說(shuō),更好操作,更低成本的小模型或許更能匹配C端用戶的核心訴求。

大模型看似高大上,但卻存在成本高,個(gè)性化不足的問題。如果大模型可以變小,甚至直接走進(jìn)移動(dòng)端,將模型塞進(jìn)手機(jī),智能汽車,機(jī)器人等設(shè)備,那么一定會(huì)大大提高C端用戶的黏著度。特別是從創(chuàng)業(yè)角度來(lái)看,搭建離用戶更近的模型自然也更有生存空間,因?yàn)樗麄冸x用戶更近。

事實(shí)上,很多企業(yè)已經(jīng)將這樣的策略提上了日程。有媒體報(bào)道,早在2022年初,阿里巴巴達(dá)摩院,上海浙江大學(xué)高等研究院,以及上海人工智能實(shí)驗(yàn)室的聯(lián)合研究團(tuán)隊(duì)通過蒸餾壓縮和參數(shù)共享等技術(shù)手段,將3.4億參數(shù)的M6模型壓縮到了百萬(wàn)參數(shù),其規(guī)模只有以大模型的三十分之一,卻保留了大模型90 %以上的性能。當(dāng)然,2022年的3.4億,較今天的大模型規(guī)模來(lái)看不算太大,但這個(gè)舉動(dòng)無(wú)疑為“大規(guī)模瘦身” 開了一個(gè)好頭。

2023年初,關(guān)于AI大模型的競(jìng)爭(zhēng)逐漸激烈,局面逐漸焦灼,最終演變成了一場(chǎng)聲勢(shì)浩大的模型競(jìng)賽。如今,潮水褪去,在耗費(fèi)了大量金錢,人力,時(shí)間成本之后,愈來(lái)愈多的AI公司悟出了一個(gè)道理:如何“變大”并不是關(guān)鍵,關(guān)鍵在于要如何“既大又好”,更重要的是,當(dāng)大模型進(jìn)入應(yīng)用環(huán)節(jié),如何該做到“以小馭大”。

如同區(qū)塊鏈行業(yè)一樣,野蠻生長(zhǎng)之后勢(shì)必會(huì)迎來(lái)監(jiān)管的壓力,AI也將面臨同樣的狀況。如今,隨著AI影響力的增強(qiáng),相關(guān)的問題也開始凸顯譬如Midjourney + Elevenlabs 生成的假新聞就引起過極大的影響。

此外,AI大模型的推進(jìn)將消耗掉大量的資源。有新聞報(bào)道,到2027年,全球的AI需求可能會(huì)消耗掉66億立方米的水資源,幾乎相當(dāng)于美國(guó)華盛頓州全年的取水量。AI對(duì)環(huán)境和能源可能造成的影響會(huì)對(duì)AI行業(yè)造成一定的經(jīng)濟(jì)壓力和政治壓力。到了那時(shí),如何用更少的數(shù)據(jù),更少的能源訓(xùn)練出更好用的模型,就成為了未來(lái)的重中之重。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。

評(píng)論

暫無(wú)評(píng)論哦,快來(lái)評(píng)價(jià)一下吧!

下載界面新聞

微信公眾號(hào)

微博

2024,會(huì)成為小模型的當(dāng)打之年嗎?

如何用更少的數(shù)據(jù),更少的能源訓(xùn)練出更好用的模型,就成為了未來(lái)的重中之重。

圖片來(lái)源:界面新聞 匡達(dá)

文|新火種 小巖

編輯|美美

乘著ChatGPT爆火的東風(fēng),2023年成為了當(dāng)之無(wú)愧的“大模型爆發(fā)之年”。跟隨ChatGPT的腳步,諸多大廠和知名企業(yè)推出了自己的AI大模型。也正因此,大模型賽道的競(jìng)爭(zhēng)變得異常激烈,燒錢的勢(shì)頭也變得異常兇猛。

不過,這樣的趨勢(shì)很可能在2024年產(chǎn)生變化。每個(gè)事物的發(fā)展都要經(jīng)歷“產(chǎn)生,發(fā)展,高潮,低谷”的階段,已經(jīng)在2023年大放異彩,涌現(xiàn)無(wú)數(shù)高光時(shí)刻的大模型很可能在2024年漸漸冷卻,褪掉光環(huán),而小模型,則有可能成為今年的破局之道。

“大模型雖然亮眼,但企業(yè)對(duì)這些技術(shù)的采用幾乎沒有實(shí)質(zhì)性的增長(zhǎng)”。

眾所周知,在高新技術(shù)和燒錢測(cè)試的加持下,大模型產(chǎn)品的表現(xiàn)變得十分突出,整個(gè)賽道也卷的出奇。但可惜的是,這些花大力氣砸出來(lái)的優(yōu)秀大模型產(chǎn)品很難成功變現(xiàn)。

根據(jù)印度IT巨頭Infosys的最新發(fā)現(xiàn),只有6%的歐洲公司通過生成式AI用例創(chuàng)造了商業(yè)價(jià)值。麥肯錫也在2023年的一份報(bào)告中得出結(jié)論,“盡管生成式AI的使用可能會(huì)刺激其他人工智能工具的采用,但我們認(rèn)為,企業(yè)對(duì)這些技術(shù)的采用幾乎沒有實(shí)質(zhì)性的增長(zhǎng)?!?/p>

而資本市場(chǎng)對(duì)于大模型AI的態(tài)度也不樂觀。從融資規(guī)模來(lái)看,生成式AI的投資浪潮是一次“短暫繁榮”,盡管頭部以及率先搶占先機(jī)的AI公司獲得了不少資本的青睞,但后續(xù)的AI公司如果想要收獲資金,并不容易。根據(jù)Crunchbase數(shù)據(jù)顯示,2023 年,人工智能獨(dú)角獸公司的融資大幅下降,僅為 2021 年市場(chǎng)高峰時(shí)的25 %左右;全球最活躍的9大 VC 在AI獨(dú)角獸公司的投資也是大幅下降。

究其原因,這并不難理解。潮水退去,方知誰(shuí)在裸泳。投資者都是趨利避害的,自然想看到自己投資的AI公司產(chǎn)出盡可能多的利潤(rùn)。在這種情況下,針對(duì)AI的投資泡沫會(huì)越來(lái)越少,據(jù)此,AI公司試錯(cuò)的成本將大大提高。

大模型發(fā)展即將受阻,小模型能否順勢(shì)而為,迎來(lái)自己的井噴元年?

在這種情況下,AI模型需要朝著效率更高,成本更低的方向去發(fā)展。從這個(gè)角度去說(shuō),小模型很可能比大模型更實(shí)用,更方便。

Snorkel AI曾做過一個(gè)試驗(yàn),分別用GPT-3微調(diào)和自己搭建的小模型來(lái)訓(xùn)練一個(gè)法律領(lǐng)域的垂直模型。GPT-3的微調(diào)和搭建成本是7418美元,10000推理的花費(fèi)是173美元,而自己搭建的小模型成本僅為1915美元,10000次推理也只是花費(fèi)了0.26美元。從正確率來(lái)看,GPT-3微調(diào)的垂直模型正確率為71.4 %,小模型則為71.3 %。

值得一提的是,GPT-3的參數(shù)量很大,是小模型的1400倍。我們當(dāng)然不能因?yàn)镚PT-3微調(diào)的正確率與小模型的正確率相似就妄下結(jié)論,認(rèn)為“參數(shù)量沒用”。不過,這或許就是“殺雞焉用牛刀”的道理,就像《華爾街日?qǐng)?bào)》提到的那句玩笑,用GPT-4總結(jié)電子郵件就像“讓蘭博基尼送披薩”。畢竟,在很多場(chǎng)景下,用戶需要的并沒有那么多。

目前,國(guó)內(nèi)的AI領(lǐng)域也在面臨相同的狀況。

如今,國(guó)內(nèi)已經(jīng)發(fā)布的所謂“大模型”超過200個(gè),“百模大戰(zhàn)”進(jìn)行的如火如荼。而處于頭部的幾個(gè)大模型都曾宣稱自己的參數(shù)規(guī)模超千億級(jí)別,有的甚至達(dá)到了萬(wàn)億的規(guī)模。

但規(guī)模只要夠大,就一定夠好嗎?未必。百度的李彥宏曾經(jīng)說(shuō)過,“100多個(gè)大模型浪費(fèi)社會(huì)資源……尤其在中國(guó)算力還受限制情況下,企業(yè)應(yīng)該去探索各行各業(yè)的應(yīng)用結(jié)合,全新的 APP產(chǎn)品可能性等?!?/p>

事實(shí)上,與李彥宏持有相同觀點(diǎn)的人并不在少數(shù)。相較于要把AI模型的規(guī)模不斷做大這件事,大家更應(yīng)該關(guān)注如何將模型更好的應(yīng)用到實(shí)處。不是大模型做不起,而是小模型更具性價(jià)比。

做小模型的本質(zhì),其實(shí)是在做離用戶更近的模型。

更重要的是,從某種層面來(lái)說(shuō),更好操作,更低成本的小模型或許更能匹配C端用戶的核心訴求。

大模型看似高大上,但卻存在成本高,個(gè)性化不足的問題。如果大模型可以變小,甚至直接走進(jìn)移動(dòng)端,將模型塞進(jìn)手機(jī),智能汽車,機(jī)器人等設(shè)備,那么一定會(huì)大大提高C端用戶的黏著度。特別是從創(chuàng)業(yè)角度來(lái)看,搭建離用戶更近的模型自然也更有生存空間,因?yàn)樗麄冸x用戶更近。

事實(shí)上,很多企業(yè)已經(jīng)將這樣的策略提上了日程。有媒體報(bào)道,早在2022年初,阿里巴巴達(dá)摩院,上海浙江大學(xué)高等研究院,以及上海人工智能實(shí)驗(yàn)室的聯(lián)合研究團(tuán)隊(duì)通過蒸餾壓縮和參數(shù)共享等技術(shù)手段,將3.4億參數(shù)的M6模型壓縮到了百萬(wàn)參數(shù),其規(guī)模只有以大模型的三十分之一,卻保留了大模型90 %以上的性能。當(dāng)然,2022年的3.4億,較今天的大模型規(guī)模來(lái)看不算太大,但這個(gè)舉動(dòng)無(wú)疑為“大規(guī)模瘦身” 開了一個(gè)好頭。

2023年初,關(guān)于AI大模型的競(jìng)爭(zhēng)逐漸激烈,局面逐漸焦灼,最終演變成了一場(chǎng)聲勢(shì)浩大的模型競(jìng)賽。如今,潮水褪去,在耗費(fèi)了大量金錢,人力,時(shí)間成本之后,愈來(lái)愈多的AI公司悟出了一個(gè)道理:如何“變大”并不是關(guān)鍵,關(guān)鍵在于要如何“既大又好”,更重要的是,當(dāng)大模型進(jìn)入應(yīng)用環(huán)節(jié),如何該做到“以小馭大”。

如同區(qū)塊鏈行業(yè)一樣,野蠻生長(zhǎng)之后勢(shì)必會(huì)迎來(lái)監(jiān)管的壓力,AI也將面臨同樣的狀況。如今,隨著AI影響力的增強(qiáng),相關(guān)的問題也開始凸顯譬如Midjourney + Elevenlabs 生成的假新聞就引起過極大的影響。

此外,AI大模型的推進(jìn)將消耗掉大量的資源。有新聞報(bào)道,到2027年,全球的AI需求可能會(huì)消耗掉66億立方米的水資源,幾乎相當(dāng)于美國(guó)華盛頓州全年的取水量。AI對(duì)環(huán)境和能源可能造成的影響會(huì)對(duì)AI行業(yè)造成一定的經(jīng)濟(jì)壓力和政治壓力。到了那時(shí),如何用更少的數(shù)據(jù),更少的能源訓(xùn)練出更好用的模型,就成為了未來(lái)的重中之重。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。