文|腦極體
人機(jī)共生,是科幻作品永恒的主題。其中,《冥王PLUTO》可能是最早探討人類與機(jī)器人如何在沖突中共存的漫畫作品。
如果說阿童木是人機(jī)共生的“和平使者”,啟蒙了幾代人對(duì)機(jī)器人的信任和熱愛,那么冥王PLUTO就是阿童木的反面,一個(gè)心懷仇恨的殺戮機(jī)器。在《鐵臂阿童木》的番外篇《地上最大機(jī)器人》中,名叫冥王PLUTO的超級(jí)機(jī)器人,要挑戰(zhàn)阿童木在內(nèi)的全球七大機(jī)器人。
這個(gè)故事,后來被浦澤直樹進(jìn)一步改編,以更大篇幅和筆墨,描畫了人機(jī)共存的種種矛盾沖突。
最近,冥王PLUTO的故事被奈飛搬上了屏幕,動(dòng)畫《冥王PLUTO》上線即爆款,豆瓣開分9.1,IMDb開分9.3,口碑如潮。
雖然這部動(dòng)畫的主題,是老生常談的“人機(jī)共生”,但在2023年觀看,卻別有一番滋味。
這一年,大模型的“智能涌現(xiàn)”展現(xiàn)出了類人級(jí)別的推理能力,具身智能讓科幻電影中的人機(jī)共存加速到來,AGI的實(shí)現(xiàn)也不再是遙不可及。
與此同時(shí),大模型和AGI所暴露出的沖擊和危險(xiǎn),也漸漸浮出水面。有畫師們聯(lián)名反對(duì)AI學(xué)習(xí)自己的作品,OpenAI政變?cè)蛑痪褪强茖W(xué)家對(duì)“AI失控”的擔(dān)憂,而中美AI競(jìng)爭(zhēng)也掀起了一輪輪博弈。
也別忘了更大的世界,很多地區(qū)正在陷入動(dòng)畫《冥王PLUTO》中中東戰(zhàn)爭(zhēng)類似的戰(zhàn)火陰霾之中。
我們所在的現(xiàn)實(shí)世界,正在不知不覺地跨越奇點(diǎn)。在不遠(yuǎn)的未來,人機(jī)共生會(huì)是一幅怎樣的畫面呢?AI會(huì)像冥王PLUTO一樣被用來殺人嗎?我們是否做好了準(zhǔn)備,去迎接一群“十萬(wàn)馬力”的超級(jí)智能機(jī)器人呢?
不妨帶著童年看阿童木動(dòng)畫片一樣的好奇心,和我們一起開開腦洞吧。
殺戮機(jī)器覺醒?又一次“狼來了”
避免劇透,一句話給大家總結(jié)一下動(dòng)畫《冥王PLUTO》的劇情——機(jī)器人在宇宙的中心呼喚愛。
在人類和機(jī)器人共同生活的未來,機(jī)器人擁有了和人一樣的感情和思維能力,可以與人建立幸福的家庭。而數(shù)次離奇的謀殺,掀開了人機(jī)共存的隱藏矛盾:機(jī)器人產(chǎn)生了仇恨的情緒,于是憤怒地舉起了槍……
看到這里,你是不是覺得這故事好熟悉?
(《冥王PLUTO》動(dòng)畫截圖)
有大量科幻作品都是這樣的:遙遠(yuǎn)的3xxx年,人類社會(huì)的科技水平高度發(fā)展,人工智能無處不在,某一天機(jī)器人像《西部世界》中德洛麗絲那樣意識(shí)覺醒,發(fā)現(xiàn)人類對(duì)自己各種欺壓,于是開始抗?fàn)幒蛷?fù)仇。
機(jī)器人意識(shí)覺醒,成為人類不可掌控的威脅,幾乎是所有“科技鬼故事”的必備設(shè)定。不過,冥王PLUTO不過是又一次“狼來了”。
首先,即使實(shí)現(xiàn)了AGI強(qiáng)人工智能,智商和意識(shí)也不是一碼事。在很長(zhǎng)一段時(shí)間內(nèi),智能機(jī)器依然只能通過聲音、面部表情、姿態(tài)等,模擬人類的情感表達(dá),并不是真的擁有情感體驗(yàn)。更何況,我們距離強(qiáng)人工智能還有不短的距離,最近一項(xiàng)針對(duì)GPT-4的圖靈測(cè)試中,得分遠(yuǎn)不及人類。對(duì)“機(jī)器意識(shí)覺醒”的恐懼,不過是又一場(chǎng)“恐怖谷效應(yīng)”。
其次,萬(wàn)一的萬(wàn)一,機(jī)器人真的產(chǎn)生了意識(shí),就一定會(huì)是惡的嗎?顯然不是。正如阿童木和冥王PLUTO是兩個(gè)對(duì)立陣營(yíng),機(jī)器人的行為特征也分“善”和“惡”。憑借今天我們對(duì)AI技術(shù)的了解,以及目前人類和機(jī)器人的關(guān)系,恐怕機(jī)器人并不會(huì)感到“被人類威脅”吧,自然也就不太可能成為什么人類殺手或機(jī)器人反叛軍團(tuán)之類的。正如《流浪地球2》《冥王PLUTO》等最新科幻作品中,機(jī)器人的威脅大多源于網(wǎng)絡(luò)漏洞、人類的惡意操作,以及算法為了讓人類延續(xù)下去計(jì)算出來的結(jié)果“好心辦壞事”。
(《冥王PLUTO》動(dòng)畫截圖)
每當(dāng)能力卓絕的智能體問世,比如ChatGPT,關(guān)于機(jī)器“超智能”的神話就會(huì)出現(xiàn)秀智商,叫賣“機(jī)器智能會(huì)超過人類智能”“機(jī)器會(huì)取代人類”之類的觀點(diǎn)。顯然,這些觀點(diǎn)都是站不住腳的,再?gòu)?qiáng)大的機(jī)器也不足以戰(zhàn)勝人類的智慧。
只不過,人們總是喜歡相信驚心動(dòng)魄的故事以及想象中的危險(xiǎn)。換個(gè)角度想,這種對(duì)危險(xiǎn)的敏感本能,或許就刻在人類野外求生的DNA中。所以,從“狼來了”到“殺戮機(jī)器覺醒”,這種故事始終會(huì)讓人樂此不疲,換個(gè)主角就能重來。
被掩蓋的真問題:高度共生的社會(huì)危機(jī)
當(dāng)人們都在熱議智能機(jī)器覺醒的假象風(fēng)險(xiǎn),也許把真正的危險(xiǎn)掩蓋住了,而這些真正的風(fēng)險(xiǎn),才是人機(jī)共生的問題所在。
大模型的到來,正在讓機(jī)器從自動(dòng)化系統(tǒng)發(fā)展成為高度自主系統(tǒng)。
所謂自動(dòng)化系統(tǒng),類似掃地機(jī)器人、恒溫控制器,只需要在可控的環(huán)境下,根據(jù)固定的目標(biāo),執(zhí)行設(shè)定好的任務(wù)。而家政機(jī)器人、自動(dòng)駕駛汽車等具身智能,顯然就沒這么簡(jiǎn)單了。它們需要在動(dòng)態(tài)變化的物理環(huán)境下,準(zhǔn)確及時(shí)地檢測(cè)到障礙物,并實(shí)時(shí)做出恰當(dāng)?shù)臎Q策和相應(yīng)的行動(dòng),這些高度自治的自主系統(tǒng),顯示出了與人類相似的智能。大模型正在讓自主系統(tǒng)的具身智能,變成現(xiàn)實(shí)。
聽起來很美好,但這個(gè)人類和自主系統(tǒng)共生的未來,可能存在安全隱患:
1.算法黑箱。AI擁有“暗知識(shí)”,無需借助理論或數(shù)學(xué)分析,就可以做出決策,在地震預(yù)測(cè)、天氣預(yù)測(cè)等方面做得比人類專家更好。但AI并不是真的理解了背后的科學(xué)原理和數(shù)學(xué)模型,如果關(guān)鍵系統(tǒng)不可靠,在生產(chǎn)環(huán)節(jié)就難以保證安全。比如設(shè)計(jì)一架飛機(jī)的自動(dòng)駕駛系統(tǒng),使用數(shù)學(xué)模型是白盒的,可以很有把握符合安全標(biāo)準(zhǔn),而算法的黑箱性不能保證足夠的安全可靠。
2.失業(yè)問題。自動(dòng)化程度越高,機(jī)器人使用越普遍,失業(yè)率就越高。不是所有馬車夫都能學(xué)會(huì)開汽車,許多被自主系統(tǒng)替代的工作崗位是不會(huì)再回來的,而需要?jiǎng)?chuàng)造力、難以被AI替代的職業(yè),比如編程、藝術(shù)創(chuàng)作,只能為少數(shù)人提供工作機(jī)會(huì)。職業(yè)結(jié)構(gòu)的變遷,一定會(huì)帶來失業(yè)陣痛,同時(shí)阻礙AI產(chǎn)業(yè)的發(fā)展。這一年來大量畫師對(duì)AIGC的反對(duì)和抗拒,就是明證。
3.技術(shù)依賴。對(duì)于大部分人來說,AI應(yīng)用和機(jī)器人的到來,一定會(huì)讓生活變得更加舒適。比如自動(dòng)配送外賣車、酒店服務(wù)機(jī)器人,就大大減少了人工勞動(dòng)。ChatGPT幫助學(xué)生們做作業(yè)、寫論文。這也意味著,人類會(huì)逐漸喪失某些技能。比如唐詩(shī)宋詞,未來的孩子可能再也不需要背誦它們了,機(jī)器人將東西無微不至地送到手邊,人的日?;顒?dòng)量也隨之減少,帶來肥胖等隱患。隨著算法預(yù)測(cè)越來越精準(zhǔn),我們會(huì)逐漸依賴AI做決策,而不是傾聽身邊普通人的建議和自己的感受與直覺,而決策-行動(dòng)-反饋的整個(gè)正向機(jī)制,也被打斷了,讓人越來越缺乏自信。人機(jī)共存就是“溫水煮青蛙”,對(duì)技術(shù)的過度依賴,并非杞人憂天。
4.政治沖突。還有一種潛在威脅,來自各國(guó)政府和企業(yè)組織的猜忌與博弈。對(duì)智能技術(shù)的管控已經(jīng)是一個(gè)政治問題了,而智能技術(shù)為核心的科技競(jìng)賽,正在掀起類似冷戰(zhàn)時(shí)期的政治博弈。
《紐約客》雜志2023年11月20日出版的一篇文章《Why the Godfather of A.I. Fears What He’s Built》(人工智能教父為何害怕自己的成果)中,圖靈獎(jiǎng)得主杰弗里·辛頓(Geoffrey Hinton)直言:“我們不知道人工智能會(huì)變成什么樣子。”但當(dāng)記者問:“為什么不直接拔掉插頭呢?”辛頓回答:“因?yàn)椴煌瑖?guó)家之間的競(jìng)爭(zhēng)。”而此前,他曾拒絕簽署一份呼吁暫停研究人工智能至少6個(gè)月的請(qǐng)?jiān)笗?,并表示:“中?guó)可不會(huì)停止研發(fā)6個(gè)月”。有理由相信,出于政治博弈的考慮,某些政府、企業(yè)或科學(xué)家,會(huì)對(duì)人工智能的風(fēng)險(xiǎn),干脆放任自流。
從人類自治邁向機(jī)器自治的人機(jī)共生社會(huì),運(yùn)行機(jī)制都要隨之變化?;蛟S不會(huì)直接導(dǎo)致殺害等災(zāi)難,但對(duì)就業(yè)、文化、政治秩序的沖擊,同樣會(huì)產(chǎn)生安全隱患。
從此刻,掀開“潘多拉魔盒”
你可能會(huì)問,既然發(fā)現(xiàn)了真正的風(fēng)險(xiǎn),是不是就能提前做出防范,減少人機(jī)共生的摩擦?
從技術(shù)層面和社會(huì)層面,這個(gè)愿望都不太現(xiàn)實(shí)。
技術(shù)層面,AI不同于人類歷史上任何技術(shù)風(fēng)險(xiǎn)的。作為一種自主學(xué)習(xí)、自主進(jìn)化的算法,AI需要不斷咀嚼大量數(shù)據(jù),進(jìn)行復(fù)雜的內(nèi)部轉(zhuǎn)換和“無監(jiān)督學(xué)習(xí)”,其中的規(guī)律和隱秘Bug可能都不是人類工程師能及時(shí)捕捉到的。我們經(jīng)常聽到程序員講一個(gè)段子:如果一段程序能跑能work,那就千萬(wàn)不要?jiǎng)铀灰肭謇怼笆荷健?。所以,人類未必能夠?qū)I成長(zhǎng)捏在自己的手心里。就像一年之前,誰(shuí)能想到ChatGPT會(huì)“智能涌現(xiàn)”,并讓整個(gè)世界天翻地覆呢?
(《冥王PLUTO》動(dòng)畫截圖)
社會(huì)層面,目前主流國(guó)家應(yīng)對(duì)危機(jī)的方法,往往不是“事前預(yù)防”,而是“動(dòng)態(tài)平衡”。事前預(yù)防,需要提前對(duì)“最壞情況”做出評(píng)估,然后進(jìn)行防御性投入,成本是非常高的,一般只會(huì)在醫(yī)療、自然災(zāi)害、戰(zhàn)爭(zhēng)等方面采用。而強(qiáng)人工智能的風(fēng)險(xiǎn),危急程度并不算高,甚至有人調(diào)侃“關(guān)鍵時(shí)候把AI電源拔了”,所以這種危機(jī)的防范就要考慮成本收益比,不會(huì)犧牲收益最大化,追求絕對(duì)安全,而是在經(jīng)濟(jì)和安全之間,尋找一個(gè)動(dòng)態(tài)平衡點(diǎn)。而這種“動(dòng)態(tài)平衡”的問題,則會(huì)讓一些脆弱群體,置身于較大的風(fēng)險(xiǎn)之中,比如重復(fù)勞動(dòng)的工人、底層白領(lǐng)、簡(jiǎn)單知識(shí)生產(chǎn)者等,面臨被取代的壓力。
大模型這條AI之路,正在掀開AGI強(qiáng)人工智能的“潘多拉魔盒”,會(huì)放出冥王PLUTO還是阿童木,抑或兼而有之,還是未知數(shù)。
既然人類和機(jī)器人高度融合共生的社會(huì)必然會(huì)到來,我們又該依靠什么保持樂觀和信心呢?我想,《冥王PLUTO》或許已經(jīng)給出了答案,那就是“愛”。
人性的種子,會(huì)頑強(qiáng)地在戰(zhàn)火和焦土中萌芽,一次又一次重建新世界。