正在閱讀:

AI威脅論:先過(guò)狗關(guān),再賽人智

掃一掃下載界面新聞APP

AI威脅論:先過(guò)狗關(guān),再賽人智

“AI不如狗”,控制AI是否為時(shí)尚早?

文|科技新知

ChatGPT讓人工智能再次引起科技界的震動(dòng),同時(shí)也激起了政策制定者、消費(fèi)者倡導(dǎo)團(tuán)體以及企業(yè)領(lǐng)導(dǎo)層的警覺(jué)。他們普遍要求為這種前沿技術(shù)制定規(guī)范,以確保其發(fā)展道路的可控性和可持續(xù)性。

幾個(gè)月前,馬斯克資助的生命未來(lái)研究所(Future of Life Institute,F(xiàn)LI)發(fā)起了一場(chǎng)具有影響力的公開(kāi)信簽名運(yùn)動(dòng)。該運(yùn)動(dòng)強(qiáng)烈呼吁先進(jìn)大模型研究應(yīng)至少暫停6個(gè)月,目的在于對(duì)當(dāng)前人工智能發(fā)展的快速膨脹進(jìn)行深入反思,因?yàn)檫@可能正導(dǎo)致我們失去對(duì)這項(xiàng)技術(shù)的控制。

上個(gè)月,人工智能安全中心(Center for AI Safety,CAIS)公布了一份矚目的簡(jiǎn)短聲明。這份聲明得到了OpenAI和DeepMind的高級(jí)管理人員、圖靈獎(jiǎng)得主以及其他AI領(lǐng)域的領(lǐng)軍研究人員的共同簽署。他們稱AI這一堪比“疫情和核戰(zhàn)爭(zhēng)”的技術(shù)或?qū)θ祟悩?gòu)成生存威脅。

不過(guò),與眾多AI謹(jǐn)慎派不同,以“深度學(xué)習(xí)三巨頭之一”楊立昆(Yann LeCun)為代表的樂(lè)觀派并認(rèn)為,我們應(yīng)該更加耐心,更加相信科技的進(jìn)步;AI現(xiàn)階段仍處在它的青澀和幼稚期,我們遠(yuǎn)未抵達(dá)那個(gè)需要緊急行動(dòng)的點(diǎn)。

這兩派的對(duì)立并非細(xì)枝末節(jié)的學(xué)術(shù)爭(zhēng)論,而是關(guān)于人類如何看待技術(shù)的問(wèn)題,是人類把技術(shù)看作是工具,完全受人類控制,還是把它看作可能脫離人類控制,甚至危及人類存亡的潛在威脅。

樂(lè)觀派:AI不如狗

上周三的Viva Tech大會(huì)上,Meta首席AI科學(xué)家楊立昆被問(wèn)及AI目前的限制。

“這些系統(tǒng)仍然非常有限,它們對(duì)現(xiàn)實(shí)世界的底層現(xiàn)實(shí)沒(méi)有任何理解,因?yàn)樗鼈兺耆窃诖罅康奈谋旧辖邮苡?xùn)練的?!睏盍⒗フf(shuō),“大部分人類的知識(shí)與語(yǔ)言無(wú)關(guān)……所以人類經(jīng)驗(yàn)的那一部分并未被AI捕捉到?!?/p>

“這告訴我們,人工智能還缺失了一些真正重要的東西……別說(shuō)是趕上人類的智力水平了,人工智能現(xiàn)在是連狗都不如?!睏盍⒗タ偨Y(jié)道。

這并不是楊立昆首次發(fā)言“AI不如狗”,在上月底350位AI領(lǐng)域大佬簽署CAIS組織的聯(lián)名公開(kāi)信時(shí),楊立昆轉(zhuǎn)發(fā)了同是樂(lè)觀派華人科學(xué)家吳恩達(dá)的推文表示:

“在人類最重要的生存問(wèn)題清單上,根本排不上超越人類的人工智能。主要是因?yàn)樗€不存在。直到我們能設(shè)計(jì)出起碼達(dá)到狗狗水平的智能(更不用說(shuō)人工智能了),再來(lái)談安全問(wèn)題也不遲。”

當(dāng)然,“AI不如狗”本質(zhì)上輸出的結(jié)論是,人類并沒(méi)有真正設(shè)計(jì)出超級(jí)智能系統(tǒng),談?wù)摪踩蚩刂茊?wèn)題有些為時(shí)過(guò)早。至于如何更加全面地反駁AI威脅論,他提供了兩個(gè)更有力的論證角度。

其一,人們不會(huì)給現(xiàn)階段的AI以完全自主權(quán):

楊立昆指出,現(xiàn)階段的自回歸模型如GPT-4,雖然擁有強(qiáng)大的自然語(yǔ)言處理能力,但其輸出結(jié)果是不可預(yù)測(cè)和難以控制的。無(wú)論是改變訓(xùn)練數(shù)據(jù)的統(tǒng)計(jì)信息,還是調(diào)整問(wèn)題的形式,都無(wú)法直接地約束這些AI模型以滿足某種特定目標(biāo)。

這種情況自然引發(fā)了一系列的擔(dān)憂。人們?cè)谀撤N程度上假設(shè),一旦允許這些AI系統(tǒng)自由地做任何我們能通過(guò)互聯(lián)網(wǎng)連接的事情,讓它們有自由使用網(wǎng)絡(luò)資源的權(quán)限,那么它們可能會(huì)做出一些瘋狂的、不理智的,甚至可能帶來(lái)危險(xiǎn)的行為。一些人擔(dān)心,我們將無(wú)法控制這些AI系統(tǒng),它們會(huì)逃脫我們的控制,甚至可能控制我們,因?yàn)樗鼈兊囊?guī)模更大,所以它們的智能也會(huì)增強(qiáng)。

然而,這種觀點(diǎn)其實(shí)是沒(méi)有根據(jù)的,或者說(shuō)是純粹的想象和夸大。未來(lái)被授予自主性的系統(tǒng),應(yīng)該是能夠規(guī)劃一系列行動(dòng)、有明確目標(biāo)且易于控制的。因此,楊立昆預(yù)測(cè),理智的人不會(huì)使用完全自動(dòng)的大語(yǔ)言模型,他們會(huì)轉(zhuǎn)向更復(fù)雜、可控制的系統(tǒng)。

其二,智力和控制欲毫無(wú)關(guān)聯(lián)性:

許多人認(rèn)為,智能實(shí)體會(huì)因?yàn)楸热祟惛斆鞫胍淙祟?。然而,楊立昆認(rèn)為這是個(gè)誤解。智力高并不意味著就有支配他人的欲望,這更多的是與進(jìn)化和生物性質(zhì)相關(guān)。

人類、黑猩猩、狼、狗等社會(huì)動(dòng)物會(huì)想要影響他人,是因?yàn)樗鼈冊(cè)谶M(jìn)化過(guò)程中建立了這種欲望。而對(duì)于非社會(huì)動(dòng)物如長(zhǎng)頸鹿來(lái)說(shuō),它們并沒(méi)有支配他人的欲望。因此,控制欲望和能力與智力是兩個(gè)不同的概念,它們之間沒(méi)有必然聯(lián)系。

此外,談及AI帶來(lái)的失業(yè)問(wèn)題,他認(rèn)為關(guān)鍵在于如何分配財(cái)富,如何組織社會(huì)使每個(gè)人都能從中獲益。這是一個(gè)政治問(wèn)題,不是技術(shù)問(wèn)題,也不是人工智能造成的新問(wèn)題,而是技術(shù)進(jìn)化造成的。

在楊立昆、吳恩達(dá)等樂(lè)觀主義者的觀點(diǎn)中,可以發(fā)現(xiàn)一個(gè)共識(shí):任何新技術(shù)在初次出現(xiàn)時(shí),都不可能完美無(wú)缺。

實(shí)際上,人類需要的是一種可以控制的方式,限制技術(shù)可能帶來(lái)的危害,對(duì)其進(jìn)行有效地監(jiān)管,并解決可能的惡性用例。完全中斷研發(fā)進(jìn)程并不是一個(gè)明智的決策。人類應(yīng)該保持對(duì)技術(shù)進(jìn)步的尊重和包容,而不是因?yàn)楹ε挛粗^(guò)早地否定其潛在的價(jià)值。

謹(jǐn)慎派:心思各異的聯(lián)盟

相較于樂(lè)觀派,謹(jǐn)慎派的陣營(yíng)似乎人數(shù)更多,也反應(yīng)了人性的一種普遍趨勢(shì)。當(dāng)新的事物出現(xiàn)時(shí),它往往會(huì)引發(fā)人們的擔(dān)憂和疑慮。這是人類對(duì)可能帶來(lái)顛覆性改變的新技術(shù)所產(chǎn)生的本能反應(yīng)。

在兩輪的公開(kāi)簽名活動(dòng)中,可以看到謹(jǐn)慎派的聲音和影響力逐步增強(qiáng)。當(dāng)這種關(guān)于“AI風(fēng)險(xiǎn)”的討論在外界引發(fā)了廣泛地思考和討論的同時(shí),一些質(zhì)疑聲音也不斷出現(xiàn)。

關(guān)于“AI的風(fēng)險(xiǎn)和危害”,這個(gè)話題已經(jīng)成為了一個(gè)表態(tài)的舞臺(tái),每個(gè)參與者都希望在這場(chǎng)風(fēng)潮中塑造自己的正面形象。

然而,問(wèn)題在于,這場(chǎng)大討論真的有用嗎?表面看起來(lái),似乎每個(gè)人都在積極參與,但實(shí)際上,卻鮮有人真正采取行動(dòng)。這種現(xiàn)象在一定程度上顯得像是在浪費(fèi)大家的時(shí)間?!澳切﹦?chuàng)造出AI技術(shù)的人參與這種聲明,其實(shí)無(wú)非就是為了給自己博取好名聲?!边@是不少業(yè)界人士對(duì)這種現(xiàn)象的評(píng)價(jià)。就連“人工智能之父”,德國(guó)計(jì)算機(jī)科學(xué)家于爾根·施密德胡伯(Jürgen Schmidhuber)也表示,許多在公開(kāi)場(chǎng)合對(duì)人工智能的危險(xiǎn)提出警告的人只是在尋求宣傳。

當(dāng)然,在一些人可能試圖利用這種情況來(lái)提升自己的知名度的同時(shí),不乏也有一些獨(dú)到的見(jiàn)解。

中國(guó)科學(xué)院自動(dòng)化研究所人工智能倫理與治理研究中心主任曾毅,也在CAIS組織的這封公開(kāi)信中簽名。他認(rèn)為,公開(kāi)信的目的并不是阻礙人工智能的發(fā)展,而是絕大多數(shù)人有權(quán)利知道人工智能的潛在風(fēng)險(xiǎn),研發(fā)者們也有義務(wù)確保人工智能不給人類帶來(lái)生存風(fēng)險(xiǎn),至少要確保這種風(fēng)險(xiǎn)的最小化。

在他的觀點(diǎn)中,人工智能對(duì)人類生存所可能帶來(lái)的威脅,可以從兩個(gè)不同的角度進(jìn)行分析:

如果將目光放到無(wú)限遠(yuǎn),遠(yuǎn)到通用人工智能和超級(jí)智能到來(lái),AI智力水平可能遠(yuǎn)超人類,那么或許就會(huì)像很多影視作品呈現(xiàn)的那樣,視人類如同螻蟻,與人類爭(zhēng)奪資源,甚至危及人類生存。

如果只看現(xiàn)在和不遠(yuǎn)的未來(lái),當(dāng)代人工智能只是看似智能的信息處理工具,不具有真正的理解能力。但曾毅認(rèn)為,正因?yàn)樗鼈兯悴簧险嬲闹悄?,不理解什么是人類、什么是生死和什么是生存風(fēng)險(xiǎn),才有可能會(huì)以人類難以預(yù)期的方式犯下人類不會(huì)犯的錯(cuò)誤。而這恰恰是更緊迫的關(guān)切所在。

有趣的是,這似乎正好在反駁楊立昆的兩大主要論點(diǎn)。

此外,謹(jǐn)慎派陣營(yíng)中,三位“人工智能教父”中的兩位辛頓(Geoffrey Hinton)和本吉奧(Yoshua Bengio)也赫然在列。他們?cè)蛟谏疃葘W(xué)習(xí)方面的工作,與楊立昆共同獲得2018年“圖靈獎(jiǎng)”。

然而,與楊立昆的觀點(diǎn)相左,本吉奧在接受采訪時(shí)坦言,他開(kāi)始對(duì)自己這一生的工作成果產(chǎn)生了一種“迷?!钡母杏X(jué)。本吉奧認(rèn)為,所有致力于構(gòu)建強(qiáng)大AI產(chǎn)品的企業(yè)都應(yīng)該進(jìn)行正式的注冊(cè)和報(bào)備?!罢枰獙?duì)這些公司的行動(dòng)進(jìn)行追蹤,對(duì)其工作內(nèi)容進(jìn)行審查,對(duì)AI行業(yè)至少要實(shí)行像對(duì)待航空、汽車或者制藥等領(lǐng)域一樣的監(jiān)管機(jī)制?!?/p>

辛頓則在近期辭去了谷歌的工作,并警告這一技術(shù)領(lǐng)域的持續(xù)發(fā)展或?qū)?lái)巨大風(fēng)險(xiǎn)。辛頓表示,“我總在用這樣的借口安慰自己:哪怕我自己不做,其他人也會(huì)這樣做。但目前真的不知道要怎么防止壞蛋利用 AI 來(lái)作惡?!?/p>

辛頓對(duì)于AI的擔(dān)憂主要有兩個(gè)方面。首先,他擔(dān)心AI會(huì)完全取代那些需要大量記憶的工作,這可能會(huì)對(duì)許多行業(yè)和職業(yè)產(chǎn)生深遠(yuǎn)影響。其次,隨著AI逐步獲取編寫和運(yùn)行自身代碼的能力,他擔(dān)憂AI最終可能取代人類的位置。

寫在最后

上文中對(duì)立兩派的觀點(diǎn),其實(shí)也有重合的地方。對(duì)于如今的 AI 是否具有風(fēng)險(xiǎn)以及該如何克服,兩派代表人物楊立昆和奧特曼看法一致。他們都認(rèn)為,即便風(fēng)險(xiǎn)存在,但可以通過(guò)仔細(xì)的工程設(shè)計(jì),減輕或抑制它。

可以肯定的是,隨著AI技術(shù)的不斷發(fā)展和深化,兩派之間的爭(zhēng)論和爭(zhēng)議仍將持續(xù)不斷。

不過(guò)相對(duì)于國(guó)外熱火朝天地討論,國(guó)內(nèi)對(duì)AI倫理和風(fēng)險(xiǎn)的關(guān)注相對(duì)較少。市場(chǎng)似乎更專注于AI大模型如何改變各行各業(yè),并對(duì)此感到喜悅和興奮。

原因可能在于,一方面為了在全球競(jìng)賽中奪取發(fā)言權(quán),商業(yè)公司首先需要縮小與國(guó)外AI大模型的差距;另一方面,也正由于國(guó)內(nèi)的AI大模型能力還未進(jìn)入未知前沿,大家對(duì)AI可能帶來(lái)的威脅并未給予足夠的關(guān)注。

在此背景下,國(guó)內(nèi)的AI創(chuàng)業(yè)者更傾向于維持一種技術(shù)樂(lè)觀主義的態(tài)度,他們不希望過(guò)早收斂自身發(fā)展,認(rèn)為這將相當(dāng)于提前投降,放棄了與國(guó)外競(jìng)爭(zhēng)的機(jī)會(huì)。

總的來(lái)說(shuō),這次的爭(zhēng)論并非毫無(wú)意義的口舌之爭(zhēng)。它為我們提供了一個(gè)理想的舞臺(tái),讓我們深入探討AI的未來(lái)走向,以及如何以人類的智慧和經(jīng)驗(yàn),來(lái)引導(dǎo)這一領(lǐng)域的發(fā)展,使其真正地服務(wù)于人類社會(huì),而非反過(guò)來(lái)控制我們。

從這場(chǎng)激烈的辯論中,可以清楚地看到,人類現(xiàn)在正站在一個(gè)重大的決策點(diǎn)。無(wú)論是選擇樂(lè)觀地?fù)肀I的發(fā)展,還是謹(jǐn)慎地審視其可能帶來(lái)的風(fēng)險(xiǎn),都需要意識(shí)到,現(xiàn)在所做的每一個(gè)決定,將會(huì)影響人類和AI之間的關(guān)系,也將塑造人類對(duì)未來(lái)的想象和期望。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。

評(píng)論

暫無(wú)評(píng)論哦,快來(lái)評(píng)價(jià)一下吧!

下載界面新聞

微信公眾號(hào)

微博

AI威脅論:先過(guò)狗關(guān),再賽人智

“AI不如狗”,控制AI是否為時(shí)尚早?

文|科技新知

ChatGPT讓人工智能再次引起科技界的震動(dòng),同時(shí)也激起了政策制定者、消費(fèi)者倡導(dǎo)團(tuán)體以及企業(yè)領(lǐng)導(dǎo)層的警覺(jué)。他們普遍要求為這種前沿技術(shù)制定規(guī)范,以確保其發(fā)展道路的可控性和可持續(xù)性。

幾個(gè)月前,馬斯克資助的生命未來(lái)研究所(Future of Life Institute,F(xiàn)LI)發(fā)起了一場(chǎng)具有影響力的公開(kāi)信簽名運(yùn)動(dòng)。該運(yùn)動(dòng)強(qiáng)烈呼吁先進(jìn)大模型研究應(yīng)至少暫停6個(gè)月,目的在于對(duì)當(dāng)前人工智能發(fā)展的快速膨脹進(jìn)行深入反思,因?yàn)檫@可能正導(dǎo)致我們失去對(duì)這項(xiàng)技術(shù)的控制。

上個(gè)月,人工智能安全中心(Center for AI Safety,CAIS)公布了一份矚目的簡(jiǎn)短聲明。這份聲明得到了OpenAI和DeepMind的高級(jí)管理人員、圖靈獎(jiǎng)得主以及其他AI領(lǐng)域的領(lǐng)軍研究人員的共同簽署。他們稱AI這一堪比“疫情和核戰(zhàn)爭(zhēng)”的技術(shù)或?qū)θ祟悩?gòu)成生存威脅。

不過(guò),與眾多AI謹(jǐn)慎派不同,以“深度學(xué)習(xí)三巨頭之一”楊立昆(Yann LeCun)為代表的樂(lè)觀派并認(rèn)為,我們應(yīng)該更加耐心,更加相信科技的進(jìn)步;AI現(xiàn)階段仍處在它的青澀和幼稚期,我們遠(yuǎn)未抵達(dá)那個(gè)需要緊急行動(dòng)的點(diǎn)。

這兩派的對(duì)立并非細(xì)枝末節(jié)的學(xué)術(shù)爭(zhēng)論,而是關(guān)于人類如何看待技術(shù)的問(wèn)題,是人類把技術(shù)看作是工具,完全受人類控制,還是把它看作可能脫離人類控制,甚至危及人類存亡的潛在威脅。

樂(lè)觀派:AI不如狗

上周三的Viva Tech大會(huì)上,Meta首席AI科學(xué)家楊立昆被問(wèn)及AI目前的限制。

“這些系統(tǒng)仍然非常有限,它們對(duì)現(xiàn)實(shí)世界的底層現(xiàn)實(shí)沒(méi)有任何理解,因?yàn)樗鼈兺耆窃诖罅康奈谋旧辖邮苡?xùn)練的?!睏盍⒗フf(shuō),“大部分人類的知識(shí)與語(yǔ)言無(wú)關(guān)……所以人類經(jīng)驗(yàn)的那一部分并未被AI捕捉到?!?/p>

“這告訴我們,人工智能還缺失了一些真正重要的東西……別說(shuō)是趕上人類的智力水平了,人工智能現(xiàn)在是連狗都不如。”楊立昆總結(jié)道。

這并不是楊立昆首次發(fā)言“AI不如狗”,在上月底350位AI領(lǐng)域大佬簽署CAIS組織的聯(lián)名公開(kāi)信時(shí),楊立昆轉(zhuǎn)發(fā)了同是樂(lè)觀派華人科學(xué)家吳恩達(dá)的推文表示:

“在人類最重要的生存問(wèn)題清單上,根本排不上超越人類的人工智能。主要是因?yàn)樗€不存在。直到我們能設(shè)計(jì)出起碼達(dá)到狗狗水平的智能(更不用說(shuō)人工智能了),再來(lái)談安全問(wèn)題也不遲。”

當(dāng)然,“AI不如狗”本質(zhì)上輸出的結(jié)論是,人類并沒(méi)有真正設(shè)計(jì)出超級(jí)智能系統(tǒng),談?wù)摪踩蚩刂茊?wèn)題有些為時(shí)過(guò)早。至于如何更加全面地反駁AI威脅論,他提供了兩個(gè)更有力的論證角度。

其一,人們不會(huì)給現(xiàn)階段的AI以完全自主權(quán):

楊立昆指出,現(xiàn)階段的自回歸模型如GPT-4,雖然擁有強(qiáng)大的自然語(yǔ)言處理能力,但其輸出結(jié)果是不可預(yù)測(cè)和難以控制的。無(wú)論是改變訓(xùn)練數(shù)據(jù)的統(tǒng)計(jì)信息,還是調(diào)整問(wèn)題的形式,都無(wú)法直接地約束這些AI模型以滿足某種特定目標(biāo)。

這種情況自然引發(fā)了一系列的擔(dān)憂。人們?cè)谀撤N程度上假設(shè),一旦允許這些AI系統(tǒng)自由地做任何我們能通過(guò)互聯(lián)網(wǎng)連接的事情,讓它們有自由使用網(wǎng)絡(luò)資源的權(quán)限,那么它們可能會(huì)做出一些瘋狂的、不理智的,甚至可能帶來(lái)危險(xiǎn)的行為。一些人擔(dān)心,我們將無(wú)法控制這些AI系統(tǒng),它們會(huì)逃脫我們的控制,甚至可能控制我們,因?yàn)樗鼈兊囊?guī)模更大,所以它們的智能也會(huì)增強(qiáng)。

然而,這種觀點(diǎn)其實(shí)是沒(méi)有根據(jù)的,或者說(shuō)是純粹的想象和夸大。未來(lái)被授予自主性的系統(tǒng),應(yīng)該是能夠規(guī)劃一系列行動(dòng)、有明確目標(biāo)且易于控制的。因此,楊立昆預(yù)測(cè),理智的人不會(huì)使用完全自動(dòng)的大語(yǔ)言模型,他們會(huì)轉(zhuǎn)向更復(fù)雜、可控制的系統(tǒng)。

其二,智力和控制欲毫無(wú)關(guān)聯(lián)性:

許多人認(rèn)為,智能實(shí)體會(huì)因?yàn)楸热祟惛斆鞫胍淙祟?。然而,楊立昆認(rèn)為這是個(gè)誤解。智力高并不意味著就有支配他人的欲望,這更多的是與進(jìn)化和生物性質(zhì)相關(guān)。

人類、黑猩猩、狼、狗等社會(huì)動(dòng)物會(huì)想要影響他人,是因?yàn)樗鼈冊(cè)谶M(jìn)化過(guò)程中建立了這種欲望。而對(duì)于非社會(huì)動(dòng)物如長(zhǎng)頸鹿來(lái)說(shuō),它們并沒(méi)有支配他人的欲望。因此,控制欲望和能力與智力是兩個(gè)不同的概念,它們之間沒(méi)有必然聯(lián)系。

此外,談及AI帶來(lái)的失業(yè)問(wèn)題,他認(rèn)為關(guān)鍵在于如何分配財(cái)富,如何組織社會(huì)使每個(gè)人都能從中獲益。這是一個(gè)政治問(wèn)題,不是技術(shù)問(wèn)題,也不是人工智能造成的新問(wèn)題,而是技術(shù)進(jìn)化造成的。

在楊立昆、吳恩達(dá)等樂(lè)觀主義者的觀點(diǎn)中,可以發(fā)現(xiàn)一個(gè)共識(shí):任何新技術(shù)在初次出現(xiàn)時(shí),都不可能完美無(wú)缺。

實(shí)際上,人類需要的是一種可以控制的方式,限制技術(shù)可能帶來(lái)的危害,對(duì)其進(jìn)行有效地監(jiān)管,并解決可能的惡性用例。完全中斷研發(fā)進(jìn)程并不是一個(gè)明智的決策。人類應(yīng)該保持對(duì)技術(shù)進(jìn)步的尊重和包容,而不是因?yàn)楹ε挛粗^(guò)早地否定其潛在的價(jià)值。

謹(jǐn)慎派:心思各異的聯(lián)盟

相較于樂(lè)觀派,謹(jǐn)慎派的陣營(yíng)似乎人數(shù)更多,也反應(yīng)了人性的一種普遍趨勢(shì)。當(dāng)新的事物出現(xiàn)時(shí),它往往會(huì)引發(fā)人們的擔(dān)憂和疑慮。這是人類對(duì)可能帶來(lái)顛覆性改變的新技術(shù)所產(chǎn)生的本能反應(yīng)。

在兩輪的公開(kāi)簽名活動(dòng)中,可以看到謹(jǐn)慎派的聲音和影響力逐步增強(qiáng)。當(dāng)這種關(guān)于“AI風(fēng)險(xiǎn)”的討論在外界引發(fā)了廣泛地思考和討論的同時(shí),一些質(zhì)疑聲音也不斷出現(xiàn)。

關(guān)于“AI的風(fēng)險(xiǎn)和危害”,這個(gè)話題已經(jīng)成為了一個(gè)表態(tài)的舞臺(tái),每個(gè)參與者都希望在這場(chǎng)風(fēng)潮中塑造自己的正面形象。

然而,問(wèn)題在于,這場(chǎng)大討論真的有用嗎?表面看起來(lái),似乎每個(gè)人都在積極參與,但實(shí)際上,卻鮮有人真正采取行動(dòng)。這種現(xiàn)象在一定程度上顯得像是在浪費(fèi)大家的時(shí)間。“那些創(chuàng)造出AI技術(shù)的人參與這種聲明,其實(shí)無(wú)非就是為了給自己博取好名聲?!边@是不少業(yè)界人士對(duì)這種現(xiàn)象的評(píng)價(jià)。就連“人工智能之父”,德國(guó)計(jì)算機(jī)科學(xué)家于爾根·施密德胡伯(Jürgen Schmidhuber)也表示,許多在公開(kāi)場(chǎng)合對(duì)人工智能的危險(xiǎn)提出警告的人只是在尋求宣傳。

當(dāng)然,在一些人可能試圖利用這種情況來(lái)提升自己的知名度的同時(shí),不乏也有一些獨(dú)到的見(jiàn)解。

中國(guó)科學(xué)院自動(dòng)化研究所人工智能倫理與治理研究中心主任曾毅,也在CAIS組織的這封公開(kāi)信中簽名。他認(rèn)為,公開(kāi)信的目的并不是阻礙人工智能的發(fā)展,而是絕大多數(shù)人有權(quán)利知道人工智能的潛在風(fēng)險(xiǎn),研發(fā)者們也有義務(wù)確保人工智能不給人類帶來(lái)生存風(fēng)險(xiǎn),至少要確保這種風(fēng)險(xiǎn)的最小化。

在他的觀點(diǎn)中,人工智能對(duì)人類生存所可能帶來(lái)的威脅,可以從兩個(gè)不同的角度進(jìn)行分析:

如果將目光放到無(wú)限遠(yuǎn),遠(yuǎn)到通用人工智能和超級(jí)智能到來(lái),AI智力水平可能遠(yuǎn)超人類,那么或許就會(huì)像很多影視作品呈現(xiàn)的那樣,視人類如同螻蟻,與人類爭(zhēng)奪資源,甚至危及人類生存。

如果只看現(xiàn)在和不遠(yuǎn)的未來(lái),當(dāng)代人工智能只是看似智能的信息處理工具,不具有真正的理解能力。但曾毅認(rèn)為,正因?yàn)樗鼈兯悴簧险嬲闹悄?,不理解什么是人類、什么是生死和什么是生存風(fēng)險(xiǎn),才有可能會(huì)以人類難以預(yù)期的方式犯下人類不會(huì)犯的錯(cuò)誤。而這恰恰是更緊迫的關(guān)切所在。

有趣的是,這似乎正好在反駁楊立昆的兩大主要論點(diǎn)。

此外,謹(jǐn)慎派陣營(yíng)中,三位“人工智能教父”中的兩位辛頓(Geoffrey Hinton)和本吉奧(Yoshua Bengio)也赫然在列。他們?cè)蛟谏疃葘W(xué)習(xí)方面的工作,與楊立昆共同獲得2018年“圖靈獎(jiǎng)”。

然而,與楊立昆的觀點(diǎn)相左,本吉奧在接受采訪時(shí)坦言,他開(kāi)始對(duì)自己這一生的工作成果產(chǎn)生了一種“迷?!钡母杏X(jué)。本吉奧認(rèn)為,所有致力于構(gòu)建強(qiáng)大AI產(chǎn)品的企業(yè)都應(yīng)該進(jìn)行正式的注冊(cè)和報(bào)備?!罢枰獙?duì)這些公司的行動(dòng)進(jìn)行追蹤,對(duì)其工作內(nèi)容進(jìn)行審查,對(duì)AI行業(yè)至少要實(shí)行像對(duì)待航空、汽車或者制藥等領(lǐng)域一樣的監(jiān)管機(jī)制?!?/p>

辛頓則在近期辭去了谷歌的工作,并警告這一技術(shù)領(lǐng)域的持續(xù)發(fā)展或?qū)?lái)巨大風(fēng)險(xiǎn)。辛頓表示,“我總在用這樣的借口安慰自己:哪怕我自己不做,其他人也會(huì)這樣做。但目前真的不知道要怎么防止壞蛋利用 AI 來(lái)作惡?!?/p>

辛頓對(duì)于AI的擔(dān)憂主要有兩個(gè)方面。首先,他擔(dān)心AI會(huì)完全取代那些需要大量記憶的工作,這可能會(huì)對(duì)許多行業(yè)和職業(yè)產(chǎn)生深遠(yuǎn)影響。其次,隨著AI逐步獲取編寫和運(yùn)行自身代碼的能力,他擔(dān)憂AI最終可能取代人類的位置。

寫在最后

上文中對(duì)立兩派的觀點(diǎn),其實(shí)也有重合的地方。對(duì)于如今的 AI 是否具有風(fēng)險(xiǎn)以及該如何克服,兩派代表人物楊立昆和奧特曼看法一致。他們都認(rèn)為,即便風(fēng)險(xiǎn)存在,但可以通過(guò)仔細(xì)的工程設(shè)計(jì),減輕或抑制它。

可以肯定的是,隨著AI技術(shù)的不斷發(fā)展和深化,兩派之間的爭(zhēng)論和爭(zhēng)議仍將持續(xù)不斷。

不過(guò)相對(duì)于國(guó)外熱火朝天地討論,國(guó)內(nèi)對(duì)AI倫理和風(fēng)險(xiǎn)的關(guān)注相對(duì)較少。市場(chǎng)似乎更專注于AI大模型如何改變各行各業(yè),并對(duì)此感到喜悅和興奮。

原因可能在于,一方面為了在全球競(jìng)賽中奪取發(fā)言權(quán),商業(yè)公司首先需要縮小與國(guó)外AI大模型的差距;另一方面,也正由于國(guó)內(nèi)的AI大模型能力還未進(jìn)入未知前沿,大家對(duì)AI可能帶來(lái)的威脅并未給予足夠的關(guān)注。

在此背景下,國(guó)內(nèi)的AI創(chuàng)業(yè)者更傾向于維持一種技術(shù)樂(lè)觀主義的態(tài)度,他們不希望過(guò)早收斂自身發(fā)展,認(rèn)為這將相當(dāng)于提前投降,放棄了與國(guó)外競(jìng)爭(zhēng)的機(jī)會(huì)。

總的來(lái)說(shuō),這次的爭(zhēng)論并非毫無(wú)意義的口舌之爭(zhēng)。它為我們提供了一個(gè)理想的舞臺(tái),讓我們深入探討AI的未來(lái)走向,以及如何以人類的智慧和經(jīng)驗(yàn),來(lái)引導(dǎo)這一領(lǐng)域的發(fā)展,使其真正地服務(wù)于人類社會(huì),而非反過(guò)來(lái)控制我們。

從這場(chǎng)激烈的辯論中,可以清楚地看到,人類現(xiàn)在正站在一個(gè)重大的決策點(diǎn)。無(wú)論是選擇樂(lè)觀地?fù)肀I的發(fā)展,還是謹(jǐn)慎地審視其可能帶來(lái)的風(fēng)險(xiǎn),都需要意識(shí)到,現(xiàn)在所做的每一個(gè)決定,將會(huì)影響人類和AI之間的關(guān)系,也將塑造人類對(duì)未來(lái)的想象和期望。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。