文|商隱社 阿空
編輯|浩然
北京時間5月14日凌晨,OpenAI公布了最新的GPT-4o?,F(xiàn)場演示中,它的表現(xiàn)仿佛一個人正坐在旁邊,和人類的對話節(jié)奏自然、融洽,完全聽不出是個AI,在短短232毫秒內(nèi),GPT-4o就能對音頻輸入做出反應(yīng)。并且,它可以將文本、音頻、圖像任何組合作為輸入和輸出。這意味著OpenAI朝著更自然的人機交互邁出了重要一步。
眼見AI是越來越強悍了,網(wǎng)上又出現(xiàn)了“AI要取代人類”的驚嘆。面對能力漸強的AI,我們應(yīng)該怎么辦?
前段時間,我們跟物理學(xué)家、科普作家萬維鋼老師圍繞AI的話題聊了很多,他對這個問題有著非常深度的思考。
他也說不清楚具體什么時候開始對AI感興趣的,只記得很早:“如果你對物理學(xué)感興趣,那么你會對所有事情都感興趣。物理學(xué)就是想知道這世界是怎么回事,世界的基本定律是什么。”
但AI的出現(xiàn)讓很多學(xué)科的基本范式發(fā)生了改變,萬維鋼稱其將掀起一場“啟蒙運動級別的大變革”。他迫切想知道,面對AI,我們憑什么認(rèn)為自己更有價值?AI究竟會服務(wù)還是取代我們?屆時,人該怎么辦?社會將如何運轉(zhuǎn)?
最近,他將這些思考集結(jié)成《拐點:站在AI顛覆世界的前夜》一書。在書中,他提出了很多反常識的洞察,對于人與AI共存的未來持樂觀態(tài)度。下文根據(jù)本書以及我們與萬維鋼的談話內(nèi)容整理而成。
篇幅比較長,但看完一定有收獲。
01 AI到底牛在哪?
AI從上世紀(jì)80年代到現(xiàn)在一直是熱門話題,人類總有一個夢想,想讓計算機擁有人的智慧。此前我們一直以為AI離我們很遙遠,我們對其想象只存在于科幻小說和電影里,阿爾法狗的出現(xiàn)讓AI的能力變得具象化,ChatGPT使其風(fēng)靡全球。
ChatGPT基于一項名為“卷積神經(jīng)網(wǎng)絡(luò)”的突破性技術(shù),也就是深度學(xué)習(xí),其實就是在模仿人腦,將神經(jīng)網(wǎng)絡(luò)分成若干層,每層只解決最小范圍的信息,再層層匯總做出綜合判斷。
以前人們嘲笑AI連一只貓都無法識別,這技術(shù)出現(xiàn)以后AI就能很輕易做到了。
當(dāng)然這不足為奇,如今最關(guān)鍵的還是算力的變化。以前AI識別圖形只需要幾千萬個參數(shù),已經(jīng)是當(dāng)時計算機處理能力的上限了。但短短幾年之后,我們談?wù)摰氖巧先f億級別的參數(shù),現(xiàn)在參數(shù)的數(shù)量級比過去大了一萬倍都不止。
算力提升以后,AI就可以做更復(fù)雜的事,想象空間被無限延展。它現(xiàn)在突然有了像人一樣的智能,甚至可以說已經(jīng)抓住了真實世界的一個投影,著實讓人震撼。
相比人腦,AI的神經(jīng)網(wǎng)絡(luò)在復(fù)雜結(jié)構(gòu)和靈活多變方面還要差很遠。但即便是如此粗糙的模仿,也讓AI具備了像人一樣的智能。很難講,如果將模型的參數(shù)量再擴大10倍、100倍,AI會不會生長出此前所不具備的功能,甚至超過人的能力?
當(dāng)前有兩派觀點。一派認(rèn)為當(dāng)前的AI都是用人的語料訓(xùn)練的,所以AI的能力很快就會達到頂點,其上限就是人的能力。
另一派認(rèn)為ChatGPT4明顯比ChatGPT3聰明,現(xiàn)在ChatGPT4的能力已經(jīng)非常接近于人,且當(dāng)前沒有證據(jù)表明擴大參數(shù)這招不再適用,我們完全可以推測ChatGPT5或ChatGPT6將遠超人的能力。
屆時,它將擁有全部的人類知識,并且從中突破,涌現(xiàn)出新的能力。馬斯克大膽預(yù)測:2025年,AI可能會比任何人類都聰明;2029年,AI可能比所有人類加起來還要聰明。
這是非常合理的。
在AI與人的各項能力指標(biāo)對比中,其進步曲線是極其陡峭的,現(xiàn)在已經(jīng)接近人的最高水平,我們憑什么認(rèn)為它會在那個地方停下來?
這場AI革命讓我們意識到,直覺是高于邏輯的。
到底什么是AI?以我之見,AI=基于經(jīng)驗+使用直覺+進行預(yù)測。
假設(shè)你用以往的經(jīng)驗數(shù)據(jù)訓(xùn)練一個模型,這個模型只關(guān)心輸入和輸出。訓(xùn)練完成之后,你再給它新的輸入,它將給你提供相當(dāng)不錯的輸出,你可以把這個動作視為預(yù)測。這就是AI。
此前人類為了認(rèn)識和預(yù)測世界,主要用兩種計算方法,一是神經(jīng)網(wǎng)絡(luò),二是形式邏輯。
所謂“形式邏輯”就是把所有問題變成數(shù)學(xué)問題進行推導(dǎo),每一步推演都有明確的因果關(guān)系,得出一個清晰的結(jié)論。形式邏輯代表“理性”,是人類智慧的偉大發(fā)明,也是啟蒙運動以來唯一正統(tǒng)的分析問題的方法。
形式邏輯要求嚴(yán)格按照某些規(guī)則操作,這對人腦來說其實很費力。人類原本擅長的、天生就會的計算,其實是神經(jīng)計算。人體是由幾個神經(jīng)網(wǎng)絡(luò)組成的,它們提供各種感知,神經(jīng)計算就是這些感知過程。
AI的感知方法跟人的感知方法別無二致,只不過比人的范圍更廣、速度更快,而且可以無限升級。
這么看來,也許啟蒙運動以來形式邏輯方法的流行,人類學(xué)者對“理性”的推崇,只不過是漫長的智能演化史中的一段短暫的插曲。用神經(jīng)網(wǎng)絡(luò)直接從輸入感知輸出,才是更根本、更普遍、更厲害的智能。AI的出現(xiàn)只是讓智能回歸本性。
未來,每個AI都不一樣,而且各有各的風(fēng)格。哪怕做的是同樣的事,因為經(jīng)歷的訓(xùn)練不一樣,它們的產(chǎn)出也會各不相同。世界將從工業(yè)復(fù)制時代重歸匠人定制時代。而那樣一個直覺而非邏輯的世界,原本就是我們熟悉的。
這也是對啟蒙運動的一種顛覆。啟蒙運動始于牛頓的物理定律,在此之前,人們對大自然的認(rèn)識非常感性,會把自然現(xiàn)象歸為神的意志。但牛頓認(rèn)為這背后都是由物理定律決定的,只要用方程和測量就能算清萬事萬物的規(guī)律。所以說啟蒙運動是一種理性化的運動,主張用理性和規(guī)則取代感性認(rèn)知。
但AI恰恰不是這樣,AI只是一種感覺,它基于神經(jīng)計算,這邊給輸入,那邊就給輸出,中間是黑箱。搞不懂這個輸出是怎么得出的,就像一種情緒,一種感覺,一種直覺。
然而事實證明這種直覺是如此準(zhǔn)確,大量訓(xùn)練過后的AI讓我們又回到了當(dāng)初感性的狀態(tài),這比理性計算更根本、更普遍、也更方便。
事實上,直覺是應(yīng)對復(fù)雜局面最好的方法,很多問題是沒有辦法通過理性一點點計算的,就像一個籃球運動員投籃不會先計算好角度、速度和旋轉(zhuǎn)弧度,只是憑感覺一投就進了,這就是直覺。
所以說,AI的思維方式恰恰就是人的感性思維。從人的智能到人工智能之變,不但比信息革命重要,而且比工業(yè)革命重要。這是啟蒙運動級別的大事件。
02 人比AI厲害在哪?
在AI超越了啟蒙運動的理性主義之后,純感性的東西我們又該怎么理解?機器人跟人之間到底有沒有本質(zhì)區(qū)別?如果AI有了意識,這時候我們給它斷電關(guān)機是不是一件很殘忍的事情?有意識的AI是不是應(yīng)該擁有人權(quán)?
我們迫切需要AI時代的哲學(xué)來回答這些問題。以我之見,AI時代的康德就是斯蒂芬·沃爾夫勒姆。他的招牌理論是“計算不可約性”,也是讓你對未來有信心的關(guān)鍵。
世界上有些事情是“可約化的”,比如濃縮的陳述、理論、公式都是對現(xiàn)實信息的壓縮表達,也就是某種約化。有了約化就有了思維快捷方式,就可以對事物的發(fā)展做出預(yù)測。
人們希望科技進步能約化一切現(xiàn)象,但現(xiàn)實恰恰相反。數(shù)學(xué)家早已證明,真正可約化的,要么是簡單系統(tǒng),要么是真實世界的一個簡單的近似模型。一切足夠復(fù)雜的系統(tǒng)都是不可約化的。
對于計算不可約的事物,本質(zhì)上沒有任何理論能提前做出預(yù)測,你只能老老實實等著它演化到那一步,才能知道結(jié)果。這就是為什么沒有人能在長時間尺度上精確預(yù)測天氣、股市、國家興亡或者人類社會的演變。不是能力不足,而是數(shù)學(xué)不允許。
計算不可約性告訴我們,任何復(fù)雜系統(tǒng)本質(zhì)上都是沒有公式、沒有理論、沒有捷徑、不可概括、不可預(yù)測的。這看起來像是個壞消息,實則是個好消息。
因為計算不可約性,人類對世間萬物的理解是不可窮盡的。這意味著不管科技多么進步、AI多么發(fā)達,世界上總會有對你和AI來說都是全新的事物出現(xiàn),你們總會有意外和驚喜。
計算不可約性規(guī)定,人活著總有奔頭。
伴隨計算不可約性的一個特點是,在任何一個不可約化的系統(tǒng)之中,總有無限多個“可約化的口袋”。也就是說,雖然你不能總結(jié)這個系統(tǒng)的完整規(guī)律,但是你永遠都可以找到一些局部規(guī)律。
所以,雖然世界本質(zhì)上是復(fù)雜和不可預(yù)測的,但我們總可以在里面做一些科學(xué)探索和研究,總結(jié)一些規(guī)律,說一些話,安排一些事情。絕對的無序之中存在著無數(shù)個相對的秩序。
計算不可約性還意味著,我們不可能徹底“管住”AI。只要模型足夠復(fù)雜,它就一定可以做一些你意想不到的事情——可能是好事,也可能是壞事。
我們管不住AI,那會不會出現(xiàn)一個終極AI,能把我們的一切都給管住呢?也不可能,還是因為計算不可約性。AI再強,也不可能窮盡所有算法和功能,總有些事情是它想不到也做不到的。
也就是說,全體AI加在一起也不可能窮盡所有功能,總會有些事情留給人類去做。那人和AI的關(guān)系將是怎樣的呢?
沃爾夫勒姆的第二個核心觀念叫“計算等價原理”,意思是所有復(fù)雜系統(tǒng)——不管提起來多復(fù)雜——都是同等復(fù)雜的,不能說哪個系統(tǒng)比哪個系統(tǒng)更復(fù)雜。
假設(shè)你裝了一塑料袋空氣,里面有很多個空氣分子,這些分子的運動非常復(fù)雜,人類社會也非常復(fù)雜。那人類社會的復(fù)雜程度是不是高于那一袋空氣分子運動的復(fù)雜程度呢?不是,它們同等復(fù)雜。
這就是說,從數(shù)學(xué)上講,人類文明并不比一袋空氣分子更高級,人類社會也不比螞蟻社會更特殊。
以前的人以為人是萬物之靈長,地球是宇宙的中心;后來發(fā)現(xiàn),地球不是宇宙的中心,人類也只是生命演化的產(chǎn)物,我們的存在跟萬物沒有什么本質(zhì)的特殊之處。
現(xiàn)在AI模型則告訴我們,人的智力也沒有什么特殊之處。任何一個足夠復(fù)雜的神經(jīng)網(wǎng)絡(luò)都是跟人的大腦同等復(fù)雜的。不能認(rèn)定人能理解的科學(xué)理論就高級,AI識別藥物分子的過程就低級。
既然都是平等的,硅基生命和碳基生命自然也是平等的。那面對AI,我們憑什么認(rèn)為自己更有價值?
這就引出了沃爾夫勒姆的第三個核心觀念:人的價值在于歷史。
我們之所以更看重人類社會,而不是一袋空氣分子或者一窩螞蟻,是因為我們是人。我們身上的基因背負(fù)了億萬年生物演化的歷史包袱,我們的文化承載了無數(shù)的歷史記憶。我們的價值觀,本質(zhì)上是歷史的產(chǎn)物。
現(xiàn)在AI幾乎已經(jīng)擁有了人的各種能力:要說創(chuàng)造,GPT可以寫小說和詩歌;要說情感,GPT可以根據(jù)你設(shè)定的情感生成內(nèi)容;GPT還有遠超普通人的判斷力和推理能力,還有相當(dāng)水平的常識。
但是,AI沒有歷史。
AI的代碼是我們臨時編寫的,而不是億萬年演化出來的;AI的記憶是我們用語料喂出來的,而不是一代代“硅基祖先”傳給它的。
AI至少在短期內(nèi)沒有辦法形成自己的價值觀。它只能參照或“對齊”我們的價值觀。這就是人類相對于AI最后的優(yōu)勢。
這樣我們就知道了AI到底不能做什么:AI不能決定人類社會探索未知的方向。
根據(jù)計算不可約性,未來總會有無數(shù)的未知等著我們?nèi)ヌ剿?,而AI再強也不可能在所有方向上進行探索,總要有所取舍。取舍只能根據(jù)價值觀,而真正有價值觀的只有人類。
當(dāng)然,這個論斷的隱含假設(shè)是AI還不完全是人。也許AI有人的智能,但只要它們沒有跟我們一模一樣的生物特性,沒有跟我們一模一樣的歷史感和文化,它們就不足以為我們做出選擇。
同樣根據(jù)計算不可約性,AI無法完全“預(yù)測”我們到時候會喜歡什么。只有我們親自面對未來的情況,在我們特有的生物特性和歷史文化影響下,才能決定喜歡什么。
這樣看來,哪怕將來真有很多人再也不用工作,直接領(lǐng)低保過日子,這些人也不是“無用之人”,至少人還有喜好。如果你厭煩了平常的事物,突然產(chǎn)生一個新的喜好,就是在探索人類新的可能性。
你的主動性的價值高于一切AI。
所以只要AI還不完全是人,輸出主動性、決定未來發(fā)展方向的就只能是人,而不是AI。
當(dāng)然,根據(jù)計算不可約性,我們也不可能完全掌舵,總會有些意外發(fā)生,其中就包括AI帶給我們的意外。
03 人怎樣比AI更強勢?
人根本不可能永遠掌控AI。
AI有自己的發(fā)展規(guī)律,就像大自然。大自然是我們至今不能完全理解的,大自然偶爾還會降下地震、火山爆發(fā)等,我們無法控制、預(yù)測。
但這么多年來,我們適應(yīng)了跟大自然相處,這就是共存。AI將來肯定會對人類造成一定的傷害,正如有汽車就有交通事故,我們認(rèn)了。
雖然大自然經(jīng)常災(zāi)害肆虐,但人類文明還是存活下來了。沃爾夫勒姆認(rèn)為其中的根本原因是,大自然的各種力量之間、我們跟大自然之間達成了某種平衡。
我們將來跟AI的關(guān)系也是這樣——我們希望人的力量和AI的力量能始終保持大體上的平衡,AI之間也能互相制衡。
如果AI太強,而人類太弱,我們可能會被AI統(tǒng)治。啟蒙運動讓人們拋開上帝,擁抱理性,可AI卻能達到人的理性達不到的地方。如果AI什么都知道,它的判斷總是比人類正確,人們就會把AI當(dāng)成神靈,從強烈相信AI變成信仰AI。
人們有什么事不是自己判斷,而是問AI,這不就是“神”又回來了嗎?沒準(zhǔn)將來AI會接管社會的道德和法律問題,就像中世紀(jì)的基督教。
為了避免這樣的情況發(fā)生,我們就必須把AI當(dāng)工具,人一定要比工具強勢。
我們要始終掌握控制權(quán),可以把AI當(dāng)做一個助手、一個副駕駛。AI的作用是幫你更快、更好地做出判斷,幫你做不屑于花時間做的事。人要比AI兇。
AI改變了決策權(quán),現(xiàn)在問題的關(guān)鍵是如何把決策權(quán)牢牢握在我們手中。
決策=預(yù)測+判斷。預(yù)測是告訴你發(fā)生各種結(jié)果的概率是多少;判斷是對于每一種結(jié)果,你在多大程度上愿意接受,能否承受選擇背后的代價。
所以更好的方式是利用AI進行預(yù)測,將各種可能的結(jié)果擺在面前,再由人類做出選擇。將預(yù)測跟判斷脫鉤,這是對人是一種賦能。
因此,AI時代的決策=AI的預(yù)測+人的判斷。預(yù)測是客觀的,判斷是主觀的,AI不能僭越人的判斷,人也不應(yīng)該專斷AI的預(yù)測。判斷的能力正變得越來越重要。
為了保證人比AI強勢,大眾教育的培養(yǎng)目標(biāo)也應(yīng)當(dāng)做出調(diào)整。AI能做好的事,你就不要學(xué)著做了,你的任務(wù)是駕馭AI,應(yīng)該把大腦解放出來學(xué)習(xí)更高級的技能。未來比較核心的能力有:
調(diào)用力。各種自動化工具都是現(xiàn)成的,但是太多了,你得有點學(xué)識,才能知道干什么事最適合用什么工具。你要想對事情有掌控感,最好多掌握一些工具。
批判性思維。既然你要做選擇,就得對這個世界是怎么回事有個基本的認(rèn)識。你得區(qū)分哪些是事實,哪些是觀點,哪些結(jié)論代表當(dāng)前科學(xué)理解,哪些說法根本不值得討論,學(xué)著明辨是非。
計算機思維。不是說非得會編程,而是你得善于結(jié)構(gòu)化、邏輯化地去思考。
懂藝術(shù)和哲學(xué)。這會提高你的判斷力,讓你能提出好的問題。藝術(shù)修養(yǎng)尤其能讓你善于理解他人,這樣你才能知道別人的需求,甚至想象出新的需求。
傳播能力和說服力。你能把一個復(fù)雜想法解釋清楚嗎?你能讓人接受你的觀點嗎?你能把產(chǎn)品推銷出去嗎?高端工作很需要這些。
當(dāng)你足夠強勢,AI對你的作用有三個:一是信息杠桿,二是讓你發(fā)現(xiàn)自己究竟想要什么,三是幫你形成自己的觀點和決策。
AI時代,一切信息皆唾手可得,整個互聯(lián)網(wǎng)就是你的硬盤,人類所有的知識就是你的第二大腦。你真正需要保存的是自己每天冒出的新想法,是你對信息的整理和解讀。
一切落實到你自己,這樣你才不會在AI面前失去自我。
04 為什么AI還沒幫我們賺到錢?
為什么AI還沒幫我們賺到錢?其實這個現(xiàn)象并不是特例,這是“通用技術(shù)”正常的發(fā)展階段。
蒸汽機、電力、半導(dǎo)體、互聯(lián)網(wǎng)都是通用
技術(shù)。它們不是一上來就能創(chuàng)造巨大財富。1987年經(jīng)濟學(xué)家羅伯特·索洛就感慨:我們這個時代到處都能看到計算機,唯獨生產(chǎn)力統(tǒng)計里看不見計算機。
通用技術(shù)剛出來不會立即改造經(jīng)濟活動,要經(jīng)過三個階段:點解決方案、應(yīng)用解決方案、系統(tǒng)解決方案。
AI的點解決方案是用AI改善你現(xiàn)有的決定;應(yīng)用解決方案是用AI改變你做決定的方式;系統(tǒng)解決方案是AI促成了新的決定,生產(chǎn)模式整個變了。
當(dāng)前我們對AI的應(yīng)用還處在點解決方案和一定程度上的應(yīng)用解決方案解讀,還沒達到系統(tǒng)解決方案階段。
如今計算機已成為創(chuàng)造生產(chǎn)力的重要工具,相信在不久的將來,AI也會如此。
AI會逐漸搶走我們的工作嗎?至少從工業(yè)革命以來的歷史經(jīng)驗看來,不會。歷史經(jīng)驗是,自動化技術(shù)會創(chuàng)造出新職業(yè)。
比如,以前每打一次電話都需要有個接線員幫你接線,那是一份很體面的工作。有了自動的電話交換機,不需要接線員了,電話行業(yè)的就業(yè)人數(shù)是不是減少了呢?恰恰沒有。
自動交換機讓打電話變得更方便、更便宜,于是電話服務(wù)的需求量大增,行業(yè)整體變大,馬上又多出很多以前不存在的崗位??偟慕Y(jié)果是,電話業(yè)的就業(yè)人數(shù)不但沒減少,反而大大增加。
類似的事情在各個行業(yè)反復(fù)發(fā)生。經(jīng)濟學(xué)家已經(jīng)總結(jié)出一套規(guī)律:自動化程度越高,生產(chǎn)力就越高,產(chǎn)品就越便宜,市場份額就越大,消費者就越多,生產(chǎn)規(guī)模就必須不成比例地擴大,結(jié)果是企業(yè)需要雇傭更多的員工。
自動化的確會取代一部分崗位,但也會制造更多新崗位。自動化程度最高的行業(yè)正是就業(yè)增加最多的行業(yè)。反倒是沒有充分實現(xiàn)自動化的公司不得不縮小就業(yè)規(guī)模,要么把生產(chǎn)外包,要么干脆倒閉。
如果怕AI搶人的工作,所以要限制AI發(fā)展,拒絕自動化,那就太愚蠢了。保護哪個行業(yè),哪個行業(yè)就會落后,產(chǎn)品就會越來越貴,消費者越來越少。
現(xiàn)在ChatGPT讓編程和公文寫作變?nèi)菀琢?,Midjourney之類的AI畫圖工具甚至已經(jīng)使得有些公司裁掉了一些插畫師。但根據(jù)歷史規(guī)律,它們會創(chuàng)造更多的工作。
比如“提示語工程師”就是剛剛出現(xiàn)的新工種。再比如,AI作畫如此容易,人們就會要求在生活中各個地方使用視覺藝術(shù)。以前墻上掛世界名畫,未來可能掛絕無僅有的新畫,而且每半小時換一幅。那么可以想見,我們會需要更多善于用AI畫畫的人。
我們不妨把AI想成是小人和奴隸,咱們都是君子和貴族??纯粗袊鴼v史,春秋時代人們對君子的期待從來都不是智商高、干活多,而是信用、聲望和領(lǐng)導(dǎo)力。我們要學(xué)的不是干活的技能,而是處理復(fù)雜事物的藝術(shù),是給不確定的世界提供秩序的智慧。
這對領(lǐng)導(dǎo)力也提出了新的要求。
05 人怎樣去領(lǐng)導(dǎo)AI?
未來每個人都需要“領(lǐng)導(dǎo)力”,不一定非得是對人的領(lǐng)導(dǎo)力,至少需要對AI的領(lǐng)導(dǎo)力。這包括制定戰(zhàn)略目標(biāo)、安排工作步驟、設(shè)置檢驗手段等。 尼克·查特拉思在《門檻》一書中提出了“AI時代的領(lǐng)導(dǎo)力”的概念。
這有啥不一樣呢?我們不妨先來回顧一下領(lǐng)導(dǎo)力的演變。
最早的領(lǐng)導(dǎo)力是“英雄主義”。我是這個狼群中最能打的,所以你們都得聽我的,我說怎么辦就怎么辦。這是最土的領(lǐng)導(dǎo)。
近現(xiàn)代以來出現(xiàn)了“軍隊式”的領(lǐng)導(dǎo)力。講究命令的穩(wěn)定性和可靠性,做事得有章法,不能朝令夕改。這種領(lǐng)導(dǎo)力的問題在于容易出官僚主義,什么都講制度和流程,有時候忘了初心。
后來主流管理學(xué)倡導(dǎo)“機器式”的領(lǐng)導(dǎo)力。它以目標(biāo)為核心,講考核、問責(zé)、任人唯賢,提倡比較扁平的組織結(jié)構(gòu),追求效率最大化。這是國內(nèi)民營企業(yè)常見的領(lǐng)導(dǎo)方式。這種領(lǐng)導(dǎo)力的問題在于它可能會讓視野窄化,過于關(guān)注具體的目標(biāo),時間長了會讓人產(chǎn)生倦怠感,乃至喪失視野。
新一代管理學(xué)倡導(dǎo)的是“價值觀和愿景”。比如“我們不是一個只知道賺錢的公司”“我們是為客戶創(chuàng)造價值”。它講究“服務(wù)式領(lǐng)導(dǎo)”,組織希望員工對要做的事情達成共識,不但知道做什么,更要知道為什么。
這種領(lǐng)導(dǎo)力的問題是,現(xiàn)在社會上各種價值觀是沖突的,共識難以達成。那怎么辦呢?
“門檻領(lǐng)導(dǎo)力”特別重視人格魅力:你的公司、你的事業(yè),本質(zhì)上是你的人格的放大;你有多大的認(rèn)知,就能做多大的事;你的認(rèn)知有多復(fù)雜,就能做多復(fù)雜的業(yè)務(wù)。
這不只是上級對下級,既可以是商家對顧客,媒體對公眾,也可以是下級對上級:只要能對別人產(chǎn)生影響,讓人沿著你選的方向前進,都是領(lǐng)導(dǎo)力。AI時代,每個人都需要一點門檻領(lǐng)導(dǎo)力。
AI當(dāng)然能給你提供各種建議方案,但是像免費還是收費、要花多大成本保護用戶隱私等充滿矛盾和悖論的問題,是你必須做的選擇。這不是智力題和知識題,而是人格題。對公司來說,現(xiàn)代社會正在變成熟人社會,你需要“內(nèi)圣外王”的能力。
查特拉思說:“無論領(lǐng)導(dǎo)者在領(lǐng)導(dǎo)時認(rèn)為自己在做什么,他們都在揭示自己的本質(zhì)?!?/p>
你和員工是什么樣的,公司就什么樣。你們既是在探索自己是誰,也是在幫助客戶發(fā)現(xiàn)他們是誰。所有品牌競爭都是人的精神內(nèi)核的較量。AI只是放大了這種較量。
用上AI很容易,任何公司都能以非常便宜的價格購買OpenAI的算力;但是一家有AI而沒有內(nèi)核的公司應(yīng)該被AI淘汰。
06 我們怎樣活出“人樣”?
人相對AI有個絕對的優(yōu)勢,也是AI至少在短期內(nèi)趕不上的,那就是人更理解人。AI再厲害也得聽人指揮,最終做決策的必須是人,用中國話說這叫“底線思維”;一切生產(chǎn)、科研都是為了人。
需求必須是各項事業(yè)的出發(fā)點和落腳點,所以理解人永遠都是最重要的智能。
AI時代,在邏輯運算、聽說讀寫那些一般認(rèn)知項目上,我們已經(jīng)輸了。我們要發(fā)揮長板優(yōu)勢,就必須讓自己更像人,而不是更像AI。
比較重要的一點是要充分感知自己和他人的情緒,區(qū)分不同情感之間的微妙差別,會對你的決策有重大影響。
AI時代的商業(yè)要求你認(rèn)識自己、認(rèn)識你的團隊、認(rèn)識你的客戶。要想真正理解數(shù)據(jù)就得深入到用戶中間去。這些都要求你跟用戶有情感溝通。這些是AI不能做的。
情緒并不是純粹的大腦功能,情緒跟身體有很大關(guān)系。我們很多時候是通過身體的反應(yīng)了解自己的情緒。AI沒有身體,它怎么能有人的情緒呢?它怎么能理解、預(yù)測人的情緒呢?至少到目前為止,情緒功能還是人的優(yōu)勢。
如果超級人工智能也能做得像真人一樣。它雖沒有真實肉體,不能真正感覺到情緒,但它會計算情感。它不但能準(zhǔn)確判斷你的情緒,還能用最好的方式表達她的情感。
它簡直就是完美的。人的所有技能它都會,人不會的它也會。它會用人類特有的情感方式說服你、暗示你、幫助你,包括使用肢體語言。它非常理解你的性格和你的文化背景,它的管理方式、制訂的計劃,方方面面的安排都非常完美。每個接近過它的人都能感受到它是充滿善意的。它簡直就像神一樣。
要是這樣的超級人工智能已經(jīng)出現(xiàn)而且普及了,請問,你這個人類還有什么用?
查特拉思認(rèn)為,你至少還有一項價值不會被超級人工智能取代。那就是“愛”,一個真人的愛。
來自機器的愛和來自真人的愛,感覺畢竟不一樣。人的愛是真的,因為只有人能真的感覺到你的痛苦和喜悅,人跟人才會有真正的瓜葛。其實這很容易理解,像什么機器寵物,甚至性愛機器人,就算再好,你總會覺得缺了點什么。
查特拉思預(yù)測,超級人工智能時代的主角將不會是機器,但也可能不會是人——而是愛。當(dāng)物質(zhì)和能力的問題都已經(jīng)解決,世界最稀缺的、人們最珍視的,將會是愛。
早在1950年,控制論之父諾伯特·維納就出了本書叫《人有人的用處》,認(rèn)為生命的本質(zhì)其實是信息:我們的使命是給系統(tǒng)提供額外的信息。在信息意義上,人生的價值在于爭取選擇權(quán)、多樣性、不確定性和自由度。
別人交給你一個任務(wù),你按照規(guī)定程序一步步操作就能完成,那你跟機器沒有區(qū)別。只有這個過程中發(fā)生了某種意外,你必須以自己的方式甚至價值觀解決問題,在這件事上留下你的印記,才證明你是一個人而不是工具。
人不是程序,人不應(yīng)該按照固定規(guī)則生活。人生的使命就是要制造意外,增加信息。有些意外來自你的情感,有些來自你身體的獨特感知,有些來自你自主的思考。
不管來自哪里,它們一定不是來自AI給你的灌輸,一定不是來自你對領(lǐng)導(dǎo)意圖的揣摩。
那些任性而為的時刻,才是你真正活著的時刻。