文|書航
谷歌電腦版首頁的格局,是和別處不同的:
在搜索框旁邊有兩個按鈕,而不是一個。在常規(guī)搜索按鈕的右邊還有一個「手氣不錯」(I'm Feeling Lucky)按鈕。
在講到 ChatGPT 以及同類生成式 AI 和搜索引擎的關(guān)系之前,讓我們先來看看這個按鈕。
「手氣不錯」,但點開搜索結(jié)果頁更棒
在搜索框內(nèi)鍵入關(guān)鍵字后,如點擊「手氣不錯」,將會跳轉(zhuǎn)到搜索結(jié)果的第一條。如果什么都不輸入,點擊「手氣不錯」則會進入谷歌的節(jié)日 Logo(Doodles)頁面。
「手氣不錯」自谷歌 1998 年成立時就已經(jīng)存在。在早期,它的正確用法是輸入網(wǎng)站名字直達該網(wǎng)站,而不需要再多點一次。
該按鈕也被用作「搜索炸彈」攻擊,即使用搜索引擎優(yōu)化(SEO)手段,讓不正確或惡意的結(jié)果排到最前面。2006 年 9 月,在搜索框輸入「failure(失?。埂竚iserable failure(慘?。乖冱c擊「手氣不錯」都會跳轉(zhuǎn)到時任美國總統(tǒng)小布什的官方簡歷頁面,因為它被刷到了搜索結(jié)果的第一條。
「手氣不錯」按鈕并沒有進入谷歌搜索的手機版,或其它有搜索框的地方。在 PC 端它也被弱化,因為輸入關(guān)鍵字時,搜索框自動向下展開聯(lián)想詞,遮住了該按鈕。在 PC 搜索結(jié)果頁也沒有這個按鈕。
不過,谷歌的語音助手 Google Assistant 如果接到一些類似「什么是……」的提問,如果沒有預設答案,也會念出搜索結(jié)果的第一項,或者維基百科條目。這可以被看作是變相的「手氣不錯」,因為最終也是只呈現(xiàn)一條結(jié)果。
「手氣不錯」保留至今僅僅是一個情懷的體現(xiàn)。相比以前,谷歌首頁也已經(jīng)很少有人訪問了。人們越來越多通過瀏覽器界面上的搜索框或地址欄進入谷歌搜索,他們看到的第一個頁面就是搜索結(jié)果頁,而不是谷歌首頁。
因此,過去數(shù)年谷歌對搜索結(jié)果頁做了重大改進。現(xiàn)在結(jié)果頁的信息量更豐富,包括從目標頁面文字中提取出的那一段有意義的文本。而「手氣不錯」并沒有做任何調(diào)整。比如,現(xiàn)在用搜索框輸入數(shù)學公式,搜索結(jié)果頁會顯示一個計算器,但「手氣不錯」會引導到一個谷歌外部的網(wǎng)頁,而不是直接展示運算結(jié)果。
搜索結(jié)果頁也包含維基百科、新聞、圖片等大量有價值的信息。如果搜索的是一個門戶網(wǎng)站或論壇,那么結(jié)果頁還附帶該站的一個站內(nèi)搜索框,不點開就可以搜索該站內(nèi)容;如果搜索的是某款軟件,官網(wǎng)的下載鏈接都會被提取出來。
同時,越來越多的搜索結(jié)果頁加入了「人們還在問」(People also ask)板塊;每個搜索結(jié)果及板塊旁邊都提供「關(guān)于此結(jié)果」(About this result)功能,介紹該搜索結(jié)果的來源,以及為什么呈現(xiàn)在這個位置上。
因此,搜索結(jié)果頁現(xiàn)在已經(jīng)比提供一個「直達」鏈接的「手氣不錯」更能滿足用戶的需要了。谷歌這一點和百度等競品都一樣,搜索引擎?zhèn)冇媒Y(jié)構(gòu)化的信息呈現(xiàn),盡量把人們留在自己站內(nèi)而不跳轉(zhuǎn)出去。
然后,我們把搜到的東西講給別人聽
現(xiàn)在,不論用谷歌還是百度,搜索更像是打開一個與關(guān)鍵字有關(guān)的「面板」——對,就像蘋果發(fā)布會總結(jié)某款新手機時候的那種拼圖版面,試圖在你的屏幕上顯示所有可能的信息,并把它們鋪滿。那種常見的一頁頁的搜索結(jié)果,要繼續(xù)滾動下去才有。
而作為搜索引擎的使用者,一個人類,你看到這些東西的時候要做的事情,其實是在自己的大腦里總結(jié)它們,并將它們轉(zhuǎn)換為一段話。比如說,如果要搜索的這個問題是你老婆問你的,她讓你幫她搜一下。那么你回答她的方式并不是給她看你的屏幕,而是自己總結(jié)一下再講給她。而且你最好不要試圖逐字念維基百科的結(jié)果,她希望聽到的或許只有一兩個字。
這時候你是什么?
你就是一個 ChatGPT 啊。
好的,我們終于要進入正題了。
根據(jù) CNBC 報道,谷歌將更快引入類似 ChatGPT 的自家產(chǎn)品 LaMDA 到搜索引擎中。谷歌的某款設計中的新版首頁,就是替換掉「手氣不錯」按鈕,取而代之的是隨著關(guān)鍵字輸入,展示 AI 選出的 5 個你最有可能提的問題。而當你打出一句自然語言后,可以點擊搜索框最右邊的聊天按鈕,將頁面切換為類似 ChatGPT 的對話模式。
在這方面,LaMDA 可以幫助我們做的工作,其實就是總結(jié)「搜索結(jié)果頁首屏」可能呈現(xiàn)出來的關(guān)鍵信息,并將其轉(zhuǎn)換為自然語言。這次,你就可以直接念屏幕上的內(nèi)容給老婆聽了。
這些內(nèi)容現(xiàn)在仍然沒有實際可用的產(chǎn)品原型曝光。另外一邊,微軟已經(jīng)宣告將在必應搜索整合 ChatGPT 本尊,甚至功能都已經(jīng)做好了,甚至都對外放出來了——雖然只有短短的 5 分鐘,但已經(jīng)足夠至少 3 個人在 Twitter 上放出截圖。
根據(jù)截圖,必應的 ChatGPT 整合使用了這樣一個流程:
首先拆開自然語言提問,將它們轉(zhuǎn)換為普通的搜索關(guān)鍵字。
精選出上述關(guān)鍵字的 5 條最相關(guān)的結(jié)果。
提取結(jié)果中與問題直接相關(guān)的段落,并合并同類項。
以這些語料喂入 ChatGPT,生成一段連貫的段落。段落中來自某個來源的一段話或幾個詞,會用角標形式給出資料來源。
這樣做的好處顯而易見,可以減少對算法的干擾,避免它分心處理困難的語義分歧;可以事先過濾關(guān)鍵字,以免惹出麻煩;可以解決未聯(lián)網(wǎng)的 ChatGPT 「瞎編」的困境。
當然,我之前也說過,將材料限定在 Prompt 給出的有限文本中,也意味著要放棄它早前從那鍋大雜燴里面學到的不知哪兒來的「知識」,成品可能變得干巴巴的,沒有使出十成功力。而這也可能意味著每一次請求結(jié)果的運算都更節(jié)能,成本更低,甚至如果轉(zhuǎn)化后的關(guān)鍵字別人搜過,還可以直接調(diào)用此前生成好的內(nèi)容呢。真是一舉多得。
這話是你說的,你可要負責啊
當人們望著攤開的搜索結(jié)果「面板」自己歸納總結(jié)的時候,是人們自己對具體采信哪條信息,放棄另一些信息來負責。比如去搜索一些疾病,搜完往往感覺都是「絕癥」。但造成這種誤解的責任只能歸結(jié)于用戶本人。
然而,如果是 AI 幫你總結(jié)這一頁到底說了什么,而你看到的只是它嚼過的成品,那就變成搜索引擎要對這段話負責了。——雖然站在搜索引擎的角度看,它也很無辜,它也避免不了,但我們不用等實際產(chǎn)品上線就會推斷出,結(jié)局一定會是這樣。
因此,谷歌們一定要注意不讓這些 AI 對搜索結(jié)果的演繹演變?yōu)樾碌摹杆阉髡◤棥?。當然,也不是完全束手無策:它們都做了很長時間的語音助手,在如何規(guī)避違規(guī)或政治不正確的結(jié)果時,積累了一些經(jīng)驗。比如在必應那種模式下,在拆分搜索關(guān)鍵字階段即可開始干預。
不同的是,因為語音助手的技術(shù)相對比較落后,它們更缺乏「自信」,也更多用車轱轆話搪塞過去,以至于人們有一個它們就玩玩就好的心理預期。ChatGPT 讓人感到「革命性」的重要原因,恰恰是它對自己說的東西充滿自信,即使那只是一本正經(jīng)的胡說八道。這使得它的危險性也直線上升。
即使通過腳注方式讓每一句話都可以溯源,這種 AI 輔助的搜索依然沒解決下一個問題,就是 FT 專欄作者描述的「劣幣驅(qū)逐良幣」:「如果不可靠的文字可以免費獲得,而原創(chuàng)研究既昂貴又費力,那么前者將會蓬勃發(fā)展?!?/p>
AIGC 的內(nèi)容對一般大眾已經(jīng)足夠可用,但對專業(yè)人士來說非常粗糙。同時他們對其中借鑒拼湊的痕跡也十分敏感。有些人類畫師咒罵說 Midjourney 或 NovelAI 這種 AI 生成的畫作,實際上是將人類作品「分尸」以后拼貼而成的「尸塊」。
但實際上,使用搜索引擎的人類做的就是拼貼,沒什么神秘的。以前我們說程序員「面向谷歌編程」,其實很多人是通往 StackOverflow,該站也是 ChatGPT 解答大量編程問題所使用的信息來源?,F(xiàn)在該站據(jù)報因為不少原本通過搜索找過來的訪問者轉(zhuǎn)而詢問 ChatGPT,而損失了一大部分流量。反過來,這又會導致站內(nèi)人類回答者受到的激勵變少,與讀者的交互也變少,長遠來看不利于維持社區(qū)氛圍,生成更多的內(nèi)容。
人類對創(chuàng)作社區(qū)的貢獻,固然有一些是源于金錢激勵,但也有不少是純粹的「我為人人,人人為我」,比如維基百科以及 StackOverflow。這些站點在幫助大量新生碼農(nóng)入門的同時,也鼓勵他們「班門弄斧」地分享,通過獲得良性反饋達到自己經(jīng)驗和技能上的進步。
專家也是一步一個腳印踏上來的,沒有初學者,哪來的專家?但 AIGC 有可能通過掐掉初學者的幼苗,讓人類能做的貢獻僅限于那些已經(jīng)練成的專家,再過幾代人,那就沒什么知識傳承了。而現(xiàn)在的 AI 還完全不會憑空創(chuàng)造。它們只是總結(jié),而且經(jīng)常是瞎貓碰死耗子這樣的總結(jié)。
AI 犯的錯誤能改正嗎?
從原理上講,大模型有天生缺陷。更正一個錯誤對人類來說是非常容易的(當然人類的自主意志或許不愿意認錯),但對現(xiàn)在的生成式 AI 很困難。即使是開發(fā)者,也很難定位錯誤具體出現(xiàn)在哪里,只能通過喂養(yǎng)新的材料試圖快速更正。當微軟曾經(jīng)研發(fā)的聊天機器人 Tay 難以抵擋大量惡意操作激發(fā)出的錯誤用例時,它只能選擇關(guān)停。
要想治本揪出病根,而不是看到危機了打個補丁這樣的方法,行得通嗎?
國內(nèi)的北京智源人工智能研究院就做了這樣的嘗試。在我之前對它們的采訪中,它們曾經(jīng)組織多條技術(shù)路線賽馬。有人做了類似 Wikidata 的中國版知識圖譜,希望教會 AI 認知不同事物之間的邏輯關(guān)系,雄心勃勃。但最后,智源對外正式發(fā)布的第一個成果,是另一條路線的大模型「悟道」。這也是 ChatGPT 蹚過的同一條路線。
大模型源于大數(shù)據(jù),但大數(shù)據(jù)不必然產(chǎn)生(好的)大模型。同樣的數(shù)據(jù),從什么方向煉,或者拿來以后是否要再篩一下,都可能導致完全不同的結(jié)果,機器學習的黑箱也讓不同人的經(jīng)驗不能復用。
如果大模型就等于大數(shù)據(jù),那百度擁有的中文數(shù)據(jù)量當然是國內(nèi)最大的。但我之前說過,就算是百度,他們煉丹的過程也極其艱難。因為上面所說的數(shù)據(jù)質(zhì)量和煉丹路徑問題,悟道目前還是中文大模型的獨苗。(雖然悟道有少數(shù)用例,但功能開放很有限,其實外界也很難感知它的成品和 ChatGPT 之間是否有可比性?,F(xiàn)在只能是說它們煉出了這么一個東西而已。)
智源驕傲地說,現(xiàn)在 AI 從「大煉模型」已經(jīng)改為「煉大模型」,從數(shù)據(jù)上云、算力上云,已經(jīng)進化到了模型上云。還想重新造輪子的小散現(xiàn)在已經(jīng)追不上他們了。不過,這中間發(fā)生了一個插曲:智源宣布自己大模型階段性成果的那篇論文《A Roadmap for Big Model》,其中居然有大量段落是直接復制粘貼過來的,實在是觀感不佳。
當然這確實只是一個插曲,因為這論文不是它們工作的核心內(nèi)容。煉丹肯定能煉出來東西,這玩意的成本就擺在那里,造假沒什么意義。同時它致敬的來源本身是谷歌的科學家 Nicholas Carlini,其實也說明了集中力量煉大模型已經(jīng)是跨越東西方的行業(yè)共識。
反過來說,這也宣告了 AI 也是朝著深度學習原理未知的「黑箱」方向一條道走到黑,專家系統(tǒng)以及知識圖譜路線再一次被打入冷宮。今后,即使大模型因為監(jiān)管原因,因為政治正確原因必須要有可解釋性,那也是用新的機器學習來解釋,用一個「黑箱」來解釋另一個「黑箱」,補丁永遠打下去,類似人類的 Prompt 工程。真正「治本」是沒有指望了。
從這個角度來說,就像 Lecun 說過的,以及微軟的洪小文在 2019 年 6 月就說過的(我現(xiàn)場聽了他那場演講),當今的 AIGC 相比早前的機器學習沒有質(zhì)的飛躍,只是模型終于大過了可以「騙過」普通人類的那個臨界點。在此之前,其實更多進步主要是業(yè)內(nèi)自嗨,大家都是很會自我安慰的,比如谷歌那個神棍員工把一點蛛絲馬跡附會為 AI 有自我意識,創(chuàng)造了自己的語言什么的。這當然是扯淡。
所以,ChatGPT 這種「信誓旦旦,虛心接受,堅決不改」的玩世不恭勁兒我們還得忍耐好一陣子。當然,必應方案中將來源鏈接與文本對應的辦法更討巧,但以這個路線實現(xiàn)的 AIGC,依然不可能有從無到有的自我創(chuàng)造。
所以……?
當 ChatGPT 幫我們撰寫文書,做總結(jié)陳詞的時候——我不知道別人怎么想,但我多少有一種開車時,從手動擋變?yōu)樽詣訐?,再前進到特斯拉「Autopilot」讓我偶爾能松開方向盤的那種感覺。(巧了,谷歌和百度也都在做自動駕駛。)
適當?shù)母倪M解放了我的雙手,讓我精力更充沛。但完全的接管,則還是因為安全原因,不能讓我放心。在車廂里,自動駕駛判斷錯誤,會付出生命的代價。在工作中,直接使用 ChatGPT 生成的結(jié)果而不潤色核查,就要讓我自己為這些結(jié)果發(fā)布后的后果負責。
其結(jié)果是,我不得不再自行,或者使用別人的人力,來做事實核查與潤色調(diào)整。就像我不得不仍然兩手放在方向盤上,時不時下意識地轉(zhuǎn)轉(zhuǎn)。
我并沒有什么內(nèi)幕信息,上文描述的情況全都來自公開資料,它們也只是 AI 搜索可能的其中一種實現(xiàn)形式。當然,它的效果會好于目前智能音箱能做到的那種「手氣不錯」模式。
大多數(shù)人可能用到的會是類似自動擋這樣,相對全手動擋是「低收益低風險」的改進。少數(shù)人會越來越拔高其中 AIGC 所占比重,進入「高收益高風險」的領域。其中多條技術(shù)路線相互競爭,最后也許跑出一兩個成功的,并且可以被大規(guī)模復制的辦法(這一點非常重要),讓原本的高風險也變成低風險,于是所有人得到更大的收益。我能想到的 AIGC 進化路線,也不外如此。
此時,當前機器學習的黑箱模式,就變成了 AIGC 模式大規(guī)模復制的最大障礙。因為你甚至都可能不知道你自己是怎么成功的,你都不能再做第二個同類產(chǎn)品出來。從這個角度上講,中國廠家即使跟風研究 ChatGPT 競品,也沒什么丟人的。不論用看上去不可能的「白箱」模式,還是用可信賴、高可靠性的黑箱解釋黑箱,只要攻克了可解釋性這個深度學習的大難關(guān),對全行業(yè)也有著重大意義。
最后,祝你每次用 AI 搜索的時候都「手氣不錯」,得到的結(jié)果不用人工修改,就可以直接用。