文|新莓daybreak 史圣園
在電影《她》中,主人公西爾多和人工智能系統(tǒng)薩曼莎相戀了。她是體貼的、幽默的、忠誠的、聰慧的,無需多言,便能理解他的喜怒哀樂,恰到好處地提供情緒價值。
薩曼莎的細膩與體貼,其實源于機器學(xué)習(xí)(Machine Learning)技術(shù):在與男主的日常溝通接觸中,這些數(shù)據(jù)和反饋幫助薩曼莎變得更「懂他」。
這部 2013 年上映的電影所想象的世界,似乎即將在十年后的今天成為現(xiàn)實。上個月末,OpenAI 發(fā)布 ChatGPT 后,數(shù)百萬網(wǎng)友沉迷于和這個聰慧 AI 的聊天對話中。就連馬斯克都為之瘋狂,稱這是「思想之樹」。
12 月 15 日,Science 雜志公布了 2022 年度科學(xué)突破,創(chuàng)造性人工智能位列其中。
過去一年,無論是 AI 作畫的強勢出圈,還是ChatGPT 令人驚嘆的對話流暢性,都在直接告訴我們:創(chuàng)造、交流、思考,不再是人類獨占的領(lǐng)域。
生成式 AI 讓我們看到了新一代技術(shù)革命的可能性,但距離它們能夠撐起萬億美元級別的市場,還有多遠的路要走?中文世界又何時能誕生一款媲美 ChatGPT 的大模型應(yīng)用?
ChatGPT ,神功初成
GPT 的全稱,是「Generative Pre-Training」,翻譯過來就是「生成式的預(yù)訓(xùn)練」。
ChatGPT,即「聊天GPT」,是 OpenAI 對 GPT-3 模型進行微調(diào)后,開發(fā)出來的聊天機器人。人們可以和它進行對話交流。
與此前不太機靈的聊天機器人前輩不同,ChatGPT 不僅上知天文下知地理,像一位博聞強識的朋友;還能夠記住聊天的上下文,真正像人類一樣根據(jù)語境進行交流。
這并不是說 ChatGPT 擁有了人類的思維。本質(zhì)上這是一個大量語言數(shù)據(jù)訓(xùn)練出來的概率模型,可以根據(jù)上文提示,預(yù)測下一個單詞、下一句話應(yīng)該是什么。
開放使用后,用戶針對 ChatGPT 生成的回答進行反饋。這些反饋對于 ChatGPT 來說是非常重要的訓(xùn)練數(shù)據(jù),和薩曼莎一樣,ChatGPT 也會越來越善解人意,順應(yīng)用戶的期望來溝通交流。
雖然,現(xiàn)階段 ChatGPT 的趣味性大過信息價值,但也有很多用戶將它視為下一代生產(chǎn)力工具,并開發(fā)出了許多用法:學(xué)代碼、寫周報、編劇本、做高數(shù)……
ChatGPT 有什么用?它自己的回答如下:文本生成、聊天機器人、問答系統(tǒng)、機器翻譯。
一個名為 gpt3demo 的網(wǎng)站收錄了使用 GPT-3 接口的所有應(yīng)用,共計 432 個,包括廣告生成、指導(dǎo)生成式AI、博客寫作、文案寫作、瀏覽器擴展、BUG核查、A/B Test、聊天機器人、健康咨詢、客服、代碼生成、數(shù)據(jù)集生成、設(shè)計、文件提取、圖片編輯等等。
「GPT-3 是一個通用智能引擎,只要能形式化為語言的任務(wù)都可以用它來做。」復(fù)旦大學(xué) NLP 在讀博士孫天祥說。
比如寫作。它不僅可以寫作營銷文案、周報總結(jié),還可以模仿魯迅、胡適創(chuàng)作詩歌和散文、以莫扎特的風(fēng)格譜曲。雖然它寫出來的文章中「廢話文學(xué)」成分略高,但邏輯清晰、文辭恰當(dāng),應(yīng)用在日常文檔工作中基本沒有違和感。
國外的效率工具們,諸如 Notion、Craft、Canva 等等,都在今年陸陸續(xù)續(xù)推出了自己的 AI 輔助寫作助手。雖然他們目前使用的并非 GPT 技術(shù),但理論上都是可以使用的。
ChatGPT 還可以寫代碼。
即刻網(wǎng)友 @機智的小榴蓮 用它將 Python 重構(gòu)成 Go,將一種代碼快速轉(zhuǎn)換為另一種代碼;@Shenk 用它寫了一段可執(zhí)行的掃雷小游戲代碼;還有很多網(wǎng)友把 ChatGPT 當(dāng)作全知全能的助教,一邊請教一邊學(xué)習(xí)代碼。
即刻網(wǎng)友 @張杰伊 則認為,ChatGPT 將編程工作變成了「寫提示 - ChatGPT生成代碼 - 人工運行代碼 - 將報錯信息粘貼給 ChatGPT - ChatGPT 改 Bug - 程序運行成功」的流程,讓低代碼直接變成了零代碼。
再比如搜索。你可以問它紅燒排骨怎么做,也可以咨詢「如何舉辦一場成功的展覽」。它幾乎閱讀完成了互聯(lián)網(wǎng)所有浩瀚的信息,總共閱讀并記住了 5000 億個詞,模型有 1750 億個參數(shù)。
雖然 ChatGPT 學(xué)習(xí)了海量的互聯(lián)網(wǎng)數(shù)據(jù),但它暫時還無法取代搜索引擎:一是時效性不足,二是準(zhǔn)確性無法保障。
關(guān)于時效性,ChatGPT 訓(xùn)練集的內(nèi)容停留在 2021 年以前,對近一年來發(fā)生的事情知之甚少。胡天祥解釋,「理論上是可以做到時效性的同步,把新加進來的材料繼續(xù)訓(xùn)練就可以了,但是一般這會造成災(zāi)難性遺忘,也就是會忘記之前的部分學(xué)習(xí)材料,制約它時時更新的主要是成本」。
準(zhǔn)確性不足,也是 ChatGPT 廣為詬病的一點:它很擅長一本正經(jīng)地胡說八道。
OpenAI 的 CEO,Sam Altman 表示,他們正試圖阻止 ChatGPT 的隨機編造,會依靠用戶反饋來改進。
ChatGPT 本尊也明確提示,自己和搜索引擎有著不同的目的和功能,不能互相取代。但它的確長成了搜索引擎想要進化成的模樣:進一步降低信息篩選的門檻,用戶可以通過單次搜索,得到一個近乎滿意的答案。
最讓人驚奇的應(yīng)用,是用 ChatGPT 指導(dǎo) AI,用魔法馴服魔法。
隨著 AI 作畫的出圈,提示語生成(prompt engineering)逐漸成為一門生意。好的提示語,能夠幫助人與AI 進行更高質(zhì)量的對話,引導(dǎo) AI 生成更符合要求的文字或圖像。
初創(chuàng)公司 PromptBase 就提供了這樣的服務(wù)交易平臺,你可以花 2-5 美元購買「提示工程師」寫的一串單詞,復(fù)制到 AI 作畫或者 GPT-3 的應(yīng)用中,就能生成你期待的圖像或文字。每單消費,PromptBase 會收取 20% 的傭金。
而現(xiàn)在,你可以讓睿智的 ChatGPT 幫你寫提示語了。經(jīng)網(wǎng)友測試,它果然比人類更懂 AI,生成的提示語質(zhì)量相當(dāng)高。
商用,還有點難
ChatGPT 出口成章的能力讓人驚嘆,但在真正的商業(yè)應(yīng)用前,還需要解決兩個問題:張口就來的問題和運維成本。
當(dāng)被問道「紅樓夢中賈寶玉適合娶誰」時,ChatGPT 言之鑿鑿地說「賈母」;而當(dāng)要求背誦觀滄海時,它更是臨時編造了一首詩,不打算對結(jié)果的準(zhǔn)確性負責(zé)。
據(jù) Twitter 網(wǎng)友的集體測試,ChatGPT 的錯誤率在 2%-5% 左右。對于一個有趣的測試版聊天機器人來說,這樣的表現(xiàn)無疑是優(yōu)秀的;但如果要應(yīng)用到嚴肅的商業(yè)場景,例如合同、公文的寫作,尤其是對于模型精度要求很高的金融行業(yè),還需要進一步訓(xùn)練輸出結(jié)果的穩(wěn)定性。
Sam Altman 也表示,現(xiàn)階段讓它不要胡說八道有點難:「讓它與當(dāng)前技術(shù)保持平衡是很棘手的。」
他們嘗試依靠用戶反饋來解決這一問題。Sam Altman說,「用戶的提問、對問題的反饋,都是非常重要的數(shù)據(jù),這讓 OpenAI 知道真實世界里用戶的意圖分布,基于這些才能讓 ChatGPT 做得更好。」
不過,如果用戶反饋中混雜了一定程度的錯誤信息,也許會使它的準(zhǔn)確率受到影響?!副?GPT-3 小的預(yù)訓(xùn)練語言語言模型都會出現(xiàn)比較嚴重的偏向性,比如種族歧視、性別歧視等等,這是互聯(lián)網(wǎng)上的數(shù)據(jù)分布造成的?!购煜榻忉尩?。
運行成本是另外一個難題:GPT-3 的計算成本比搜索引擎大得多。
每天,搜索引擎都要服務(wù)數(shù)十億個搜索請求。單次計算成本即使是微小的提升,放到這個數(shù)量級上,都是相當(dāng)可觀的真金白銀。
Sam Altman 在社交媒體上稱,目前 ChatGPT 單次回答(Single Turn)的平均費用在幾美分左右(約合幾毛錢人民幣)。雖然未來還會持續(xù)降低,但業(yè)界人士普遍認為,只有當(dāng)成本縮減 90% 后,才有商業(yè)應(yīng)用的經(jīng)濟適用性。
「不過現(xiàn)在看下來,他的部署速度還是挺快的了,國內(nèi)部署的大模型都比它慢得多?!购煜檎J為,雖然成本的確是個制約,但其部署速度讓人看到了近期商業(yè)化落地的可能性。
中國版 OpenAI 在哪里
其實,國內(nèi)不是沒有大廠在做類似的事。
根據(jù)公開資料,目前中國大模型參數(shù)量最大的是阿里的 M6 大模型,達到了萬億級別;百度文心、華為的盤古大模型,也有千億的規(guī)模。
國內(nèi)智源,IDEA,百度,阿里,華為,騰訊都有類似的大模型,比如 GLM,CPM,ERNIE(百度),M6(阿里),盤古(華為)等等。雖然能力尚無法與 GPT-3 比肩,但其中一部分也已經(jīng)被應(yīng)用在業(yè)務(wù)。只不過,它們往往被應(yīng)用在內(nèi)部業(yè)務(wù)中,對外的并不多,因此知名度并不高。
百度文心,是國內(nèi)少數(shù)對外開放的大模型應(yīng)用之一,2021 年開放給公眾使用。它可以實現(xiàn)視頻、歌詞、藝術(shù)作品的自動生成,已被應(yīng)用于百度內(nèi)部的搜索、信息流、百度地圖等產(chǎn)品中。
3 個月前,百度發(fā)布了 AI 助理,提供給普通用戶 AI 自動生成文字、圖片等功能,還提出為創(chuàng)作者帶來一套 AI 生產(chǎn)內(nèi)容工具,更高效的生產(chǎn)視頻內(nèi)容。這意味著,百度的 AI 產(chǎn)品正式開始 toC 了。
就在前幾天,由百度文心續(xù)畫的陸小曼未盡畫稿,和海派畫家續(xù)畫的同名畫作,共計以 110 萬元的高價落槌。一方面,讓人看到了 AI + 藝術(shù)的商業(yè)價值,另一方面,也能看出百度對于商業(yè)變現(xiàn)的迫切性。
在飛槳平臺上,我們也可以體驗類似于 ChatGPT 的功能,但顯然它的語義理解能力還有待增強。當(dāng)我們問它「文心大模型是什么」時,它沒能對自己進行一個流暢的自我介紹,生成的文字也顯得前言不搭后語。
為什么國內(nèi)的模型,在效果上無法媲美 OpenAI 呢?
一是中文領(lǐng)域的難度更大?!钢形挠?xùn)練數(shù)據(jù)一來確實少,二來質(zhì)量低?!购煜檎f,即使是 ChatGPT 的英文處理也顯著優(yōu)于中文處理。中文互聯(lián)網(wǎng)世界里,各大 APP 相對割裂,可供 AI 訓(xùn)練的公共內(nèi)容遠不及英文素材豐富。
第二,技術(shù)的進步,需要長久而持續(xù)的投入。「OpenAI 的團隊 2020 年放出 GPT-3 后就一直在維護和更新,不斷收集用戶反饋和真實的數(shù)據(jù),慢慢形成了數(shù)據(jù)壁壘?!?/p>
千億級別的大模型,顯卡的算力成本需要在千張以上。像 GPT 這樣擁有 1750 億參數(shù)的大模型,運算一次要花 450 萬美金,跟發(fā)射一個衛(wèi)星的成本差不多。商業(yè)前景不明朗,又需要不計成本的投入,對大廠來說這不劃算。
另一方面,國內(nèi)大廠的科研團隊隸屬于公司,節(jié)奏緊張,很難避免商業(yè)變現(xiàn)的壓力;而 OpenAI 自成立之初,便將自己定位為「非營利組織」,更類似于研究院的性質(zhì),招徠頂尖的科研人才。當(dāng)然,微軟的投資給了 OpenAI 燒錢做研究的底氣。
值得注意的是,OpenAI 發(fā)布的關(guān)于 ChatGPT 的論文中,共有 8 位主要作者,其中 3 位的姓名是中文拼音。他們或許來自中國,或許是華裔。而網(wǎng)絡(luò)領(lǐng)域頂會(SIGCOMM)的期刊中,每年都會收錄幾篇來自于阿里、華為等公司的研究論文。這說明國內(nèi) AI 領(lǐng)域,不缺乏優(yōu)秀的基礎(chǔ)研究者。
我們?nèi)狈Φ模赡苁悄托摹V薪鸹鸬难芯繄蟾嬷性鴮懙?,「實力雄厚的美國互?lián)網(wǎng)巨頭對 AI 底層技術(shù)戰(zhàn)略性投入力度較大,但中國的 AI 產(chǎn)業(yè)主要受需求拉動,大多數(shù) AI 公司布局應(yīng)用層?!?/p>
好消息是,ChatGPT 的成功出圈,讓資本和業(yè)界都看到了它不可估量的商業(yè)潛力。
2022 年被很多人稱為「AIGC 元年」,此前默默無聞的大模型賽道,今年融資也多了起來,單筆融資金額高達 10 億元,聯(lián)想創(chuàng)投、創(chuàng)新工場等知名投資機構(gòu)均參與其中。
這意味著,會有更多初創(chuàng)公司加入這場需要耐心和毅力的長跑。與大廠不同,它們或許能以更聚焦的技術(shù)輸出全情投入,為中文世界的生成式 AI 積累點滴珍貴的創(chuàng)新。