正在閱讀:

麻省理工科技評(píng)論:生存風(fēng)險(xiǎn)如何成為 AI 中最大模因

掃一掃下載界面新聞APP

麻省理工科技評(píng)論:生存風(fēng)險(xiǎn)如何成為 AI 中最大模因

AI 末日論的傳染擴(kuò)散。

編譯|巴比特資訊 Will Douglas Heaven

是誰在害怕機(jī)器人?似乎很多人都是這樣。目前,公開發(fā)表聲明或簽署公開信警告人工智能災(zāi)難性危險(xiǎn)的知名人士的數(shù)量多到驚人。

數(shù)以百計(jì)的科學(xué)家、商業(yè)領(lǐng)袖和政策制定者已經(jīng)發(fā)聲,包括從深度學(xué)習(xí)先驅(qū) Geoffrey Hinton 和 Yoshua Bengio,到頂級(jí)人工智能公司的首席執(zhí)行官,如 Sam Altman 和 Demis Hassabis,再到加州眾議員 Ted Lieu 和愛沙尼亞前總統(tǒng) Kersti Kaljulaid。

由所有這些人士和其他更多人簽署的最嚴(yán)酷的斷言是兩周前由舊金山的研究組織人工智能安全中心(CAIS)發(fā)布的 22 個(gè)字的聲明,它宣稱“減輕人工智能帶來的滅絕風(fēng)險(xiǎn)應(yīng)該是一個(gè)全球性的優(yōu)先事項(xiàng),與其他社會(huì)規(guī)模的風(fēng)險(xiǎn)如疫情和核戰(zhàn)爭一樣。”

這種措辭是經(jīng)過深思熟慮的。CAIS 主任 Dan Hendrycks 說:“如果我們要用羅夏測(cè)試式的陳述,我們會(huì)說‘生存風(fēng)險(xiǎn)’(existential risk),因?yàn)檫@對(duì)很多不同的人來說可能意味著很多東西。”但他們希望澄清:這并不是要搞垮經(jīng)濟(jì)。Hendrycks 說:“這就是為什么我們提到了‘滅絕風(fēng)險(xiǎn)’(risk of extinction),盡管我們很多人也擔(dān)心其他各種風(fēng)險(xiǎn)。”

我們以前也經(jīng)歷過這樣的情況:人工智能的厄運(yùn)伴隨著人工智能的炒作。但這一次感覺不同。奧弗頓窗口已經(jīng)轉(zhuǎn)移了。曾經(jīng)的極端觀點(diǎn)現(xiàn)在成了主流話題,不僅搶占了頭條,還引起了世界領(lǐng)導(dǎo)人的注意。研究技術(shù)社會(huì)影響的組織“數(shù)據(jù)與社會(huì)”(Data and Society)的研究主任 Jenna Burrell 說:“對(duì)人工智能表示擔(dān)憂的聲音已經(jīng)大到無法忽視。”

這是發(fā)生了什么?人工智能真的變得(更)危險(xiǎn)了嗎?為什么當(dāng)初引進(jìn)這項(xiàng)技術(shù)的人現(xiàn)在卻開始拉響警報(bào)?

誠然,這些觀點(diǎn)在該領(lǐng)域存在分歧。上周,Meta 公司的首席科學(xué)家、與 Hinton 和 Bengio 共同獲得 2018 年圖靈獎(jiǎng)的 Yann LeCun 稱末日論荒謬可笑”。人工智能公司 Cohere 的首席執(zhí)行官 Aidan Gomez 表示,這是“對(duì)我們時(shí)間的荒謬?yán)谩薄?/p>

同樣,其他人也對(duì)此嗤之以鼻。Signal 總裁 Meredith Whittaker 表示:“現(xiàn)在沒有比 1950 年有更多的證據(jù)表明,人工智能將構(gòu)成這些生存風(fēng)險(xiǎn)。”Whittaker 是人工智能研究所(AI now Institute)的聯(lián)合創(chuàng)始人和前主任,該研究所是一家研究人工智能政策影響的研究實(shí)驗(yàn)室?!肮砉适率菚?huì)傳染的——害怕真的很令人興奮和刺激?!?/p>

“這也是一種略過當(dāng)今所發(fā)生的一切的方式,”Burrell 說。“它表明我們還沒有看到真正或嚴(yán)重的危害。”

一種古老的恐懼

自阿蘭 - 圖靈以來,對(duì)失控的、自我改進(jìn)的機(jī)器的擔(dān)憂一直存在。Vernor Vinge 和 Ray Kurzweil 等未來學(xué)家通過談?wù)撍^的“奇點(diǎn)”(Singularity)來普及這些想法,“奇點(diǎn)”是一個(gè)假想的日期,即人工智能超過人類智能并由機(jī)器接管。

但這種擔(dān)憂的核心是控制的問題:如果(或當(dāng))機(jī)器變得更聰明時(shí),人類如何保持優(yōu)勢(shì)地位?在 2017 年發(fā)表的一篇名為“人工智能如何構(gòu)成生存風(fēng)險(xiǎn)?”的論文中,多倫多大學(xué)人工智能哲學(xué)家 Karina Vold(她也簽署了 CAIS 的聲明)闡述了這種擔(dān)憂背后的基本論點(diǎn)。

論點(diǎn)有三個(gè)關(guān)鍵前提。第一,人類有可能造出一臺(tái)超級(jí)智能機(jī)器,它可以超越所有其他智能。第二,我們有可能無法控制能夠超越我們的超級(jí)智能體。第三,超級(jí)智能體有可能會(huì)做一些我們不希望它做的事情。

把所有這些結(jié)合起來,就有可能制造出一種機(jī)器,它會(huì)做我們不想讓它做的事情,包括消滅我們,而我們將無法阻止它。

這種場(chǎng)景也有不同的情況。當(dāng) Hinton 在五月份提出他對(duì)人工智能的擔(dān)憂時(shí),他舉了機(jī)器人重新調(diào)整電網(wǎng)路線以給自己提供更多電力的例子。但超級(jí)智能(或 AGI)并不是必需的。愚蠢的機(jī)器如果有太多的空間,也可能是災(zāi)難性的。許多場(chǎng)景涉及到輕率或惡意的部署,而不是自利的機(jī)器人。

加州大學(xué)伯克利分校的人工智能研究人員 Stuart Russell 和 Andrew Critch(他們也都簽署了 CAIS 的聲明)在上周在線發(fā)表的一篇論文中,給出了生存風(fēng)險(xiǎn)的分類法。這些風(fēng)險(xiǎn)的范圍包括:病毒式的提供建議的聊天機(jī)器人,告訴數(shù)百萬人從大學(xué)退學(xué),到追求有害經(jīng)濟(jì)目的的自主產(chǎn)業(yè),再到民族國家建造人工智能驅(qū)動(dòng)的超級(jí)武器。

在許多想象中的案例中,一個(gè)理論模型實(shí)現(xiàn)了其人類賦予的目標(biāo),但卻以一種對(duì)我們不利的方式來實(shí)現(xiàn)。Hendrycks 研究了深度學(xué)習(xí)模型在給定訓(xùn)練數(shù)據(jù)中未見的輸入時(shí)有時(shí)會(huì)以意想不到的方式表現(xiàn),對(duì)于他來說,人工智能系統(tǒng)可能是災(zāi)難性的,因?yàn)樗瞧茐男缘亩皇侨f能的。他說:“如果你給它一個(gè)目標(biāo),而它卻找到了外來的解決方案,那么它將帶我們踏上一段奇怪的旅程?!?/p>

這些可能的未來的問題是,它們依賴于一連串的“如果”,這使它們聽起來像科幻小說。Vold 自己也承認(rèn)了這一點(diǎn)。“由于構(gòu)成或引發(fā) [生存風(fēng)險(xiǎn)] 的事件是前所未有的,因此關(guān)于它們構(gòu)成這種威脅的論點(diǎn)本質(zhì)上必須是理論性的,”她寫道。“它們的稀有性也使得任何關(guān)于此類事件如何或何時(shí)發(fā)生的猜測(cè)都是主觀的,無法通過經(jīng)驗(yàn)驗(yàn)證?!?/p>

那么,為什么越來越多的人比以往任何時(shí)候都更相信這些想法?谷歌的人工智能研究員 Fran?ois Chollet 說:“不同的人出于不同的原因談?wù)擄L(fēng)險(xiǎn),他們的意思也可能不同。”但這是一種難以抗拒的敘述:“生存風(fēng)險(xiǎn)一直是一個(gè)好故事”。

“這其中有一種不容忽視的神話、近乎宗教的元素,”Whittaker。“我認(rèn)為我們需要認(rèn)識(shí)到,鑒于所描述的內(nèi)容沒有證據(jù)基礎(chǔ),它更接近于一種信仰,一種宗教狂熱,而不是科學(xué)話語。”

末日論的傳染擴(kuò)散

當(dāng)深度學(xué)習(xí)研究人員第一次開始取得一系列成功時(shí) -- 想想 Hinton 和他的同事們?cè)?2012 年 ImageNet 競賽中打破記錄的圖像識(shí)別分?jǐn)?shù),以及 DeepMind 在 2015 年首次以 AlphaGo 戰(zhàn)勝人類冠軍時(shí),炒作很快也變成了末日論?;艚鸷陀钪鎸W(xué)家 Martin Rees 等知名科學(xué)家,以及埃隆 - 馬斯克等知名科技領(lǐng)袖,都發(fā)出了生存風(fēng)險(xiǎn)的警報(bào)。但這些人物并不是人工智能專家。

八年前,深度學(xué)習(xí)先驅(qū)、時(shí)任百度首席科學(xué)家吳恩達(dá)(Andrew Ng)站在圣何塞的講臺(tái)上,對(duì)這個(gè)想法一笑置之。

“在遙遠(yuǎn)的未來,可能會(huì)出現(xiàn)一場(chǎng)殺手機(jī)器人競賽,”吳恩達(dá)在 2015 年 Nvidia GPU 技術(shù)大會(huì)上告訴觀眾。“但我今天并不致力于防止人工智能變得邪惡,就像我不擔(dān)心火星上人口過剩的問題?!保萍夹侣劸W(wǎng)站 The Register 當(dāng)時(shí)報(bào)道了吳恩達(dá)的這番話。)

吳恩達(dá)于 2011 年共同創(chuàng)立了谷歌人工智能實(shí)驗(yàn)室,現(xiàn)任 Landing AI 首席執(zhí)行官,他在此后在采訪中不斷重復(fù)著這句話。但現(xiàn)在的他不那么樂觀了?!拔冶3珠_放的態(tài)度,正在與一些人交談以了解更多信息,”他告訴我。“快速的發(fā)展讓科學(xué)家們重新思考風(fēng)險(xiǎn)?!?/p>

和許多人一樣,吳恩達(dá)對(duì)生成式人工智能的快速發(fā)展及其被濫用的可能性表示擔(dān)憂。他指出,上個(gè)月,一個(gè)被廣泛傳播的由 AI 生成的五角大樓的爆炸圖像嚇壞了人們,連著股票市場(chǎng)也跟著下跌。

“不幸的是,人工智能如此強(qiáng)大,它似乎也可能會(huì)導(dǎo)致巨大的問題,”吳恩達(dá)說。但他沒有談到殺手機(jī)器人:“現(xiàn)在,我仍然很難看到人工智能會(huì)如何導(dǎo)致我們的滅絕”。

與之前不同的是人們對(duì)人工智能能做什么的廣泛認(rèn)識(shí)。去年年底,ChatGPT 將這項(xiàng)技術(shù)推向了公眾?!叭斯ぶ悄芡蝗怀蔀橹髁鞯臒衢T話題,”Chollet 說道?!叭藗冋谡J(rèn)真對(duì)待人工智能,因?yàn)樗麄儗⒛芰Φ耐蝗伙w躍視為未來更多飛躍的預(yù)兆?!?/p>

此外,與聊天機(jī)器人對(duì)話的經(jīng)歷也會(huì)讓人感到不安。對(duì)話是一種通常被理解為人們與其他人一起做的事情。Whittaker 說:“它為人工智能像人類或有感知能力的對(duì)話者這一想法增添了一種合理性?!薄拔艺J(rèn)為這讓人們相信,如果人工智能可以模擬人類交流,它也可以做 XYZ?!?/p>

“這就是我開始覺得關(guān)于生存風(fēng)險(xiǎn)的對(duì)話有些適合的原因 -- 在沒有證據(jù)的情況下進(jìn)行推斷,”她說。

展望未來

我們有理由感到憤慨。隨著監(jiān)管機(jī)構(gòu)對(duì)科技行業(yè)的追趕,擺在桌面上的問題是什么樣的活動(dòng)應(yīng)該或不應(yīng)該受到限制。突出長期風(fēng)險(xiǎn)而不是短期危害(如歧視性雇用或錯(cuò)誤信息),使監(jiān)管者的注意力重新集中在未來的假想問題上。

Burrell 說:“我懷疑真正的監(jiān)管限制的威脅已經(jīng)推動(dòng)人們采取了一種立場(chǎng)。談?wù)撋骘L(fēng)險(xiǎn)可能會(huì)驗(yàn)證監(jiān)管者的擔(dān)憂,而不會(huì)破壞商業(yè)機(jī)會(huì)?!彼f:“背叛人類的超級(jí)智能 AI 聽起來很可怕,但這顯然也是尚未發(fā)生的事情?!?/p>

夸大對(duì)生存風(fēng)險(xiǎn)的擔(dān)憂在其他方面也有利于商業(yè)。Chollet 指出,頂級(jí)人工智能公司需要我們認(rèn)為 AGI 即將到來,而他們就是建造 AGI 的人。他說:“如果你想讓人們認(rèn)為你正在研究的東西是強(qiáng)大的,那么讓他們害怕它是一個(gè)好主意。”

Whittaker 也持類似觀點(diǎn)。她說:“把自己塑造成一個(gè)可能比人類更強(qiáng)大的實(shí)體的創(chuàng)造者是一件重要的事情?!?/p>

如果僅僅是營銷或炒作,這些都不重要。但決定什么是風(fēng)險(xiǎn),什么不是風(fēng)險(xiǎn),會(huì)有相應(yīng)的后果。在一個(gè)預(yù)算和注意力有限的世界里,沒有核戰(zhàn)爭那么極端的傷害可能會(huì)被忽視,因?yàn)槲覀冋J(rèn)為它們不是優(yōu)先事項(xiàng)。

“這是一個(gè)重要的問題,尤其是在人們?cè)絹碓疥P(guān)注安全和保障作為政策干預(yù)的狹窄框架的情況下,”AI Now 研究所的常務(wù)董事 Sarah Myers West 說。

當(dāng)首相 Rishi Sunak 在 5 月與包括 Sam Altman 和 Demis Hassabis 在內(nèi)的人工智能公司負(fù)責(zé)人會(huì)面時(shí),英國政府發(fā)表聲明說:“首相和首席執(zhí)行官們討論了該技術(shù)的風(fēng)險(xiǎn),從虛假信息和國家安全,到生存威脅”。

此前一周,Altman 告訴美國參議院,他最擔(dān)心的是人工智能產(chǎn)業(yè)會(huì)對(duì)世界造成重大傷害。Altman 的證詞引發(fā)了人們對(duì)建立新型機(jī)構(gòu)來解決這種前所未有的危害的呼聲。

隨著奧弗頓窗口的轉(zhuǎn)移,危害是否已經(jīng)造成?“如果我們談?wù)摰氖沁b遠(yuǎn)的未來,如果我們談?wù)摰氖巧裨挵愕娘L(fēng)險(xiǎn),那么我們就完全把問題重塑為一個(gè)存在于幻想世界的問題,其解決方案也可以存在于幻想世界,”Whittaker 說。

但 Whittaker 也指出,圍繞人工智能的政策討論已經(jīng)持續(xù)了多年,比最近這種恐懼要長?!拔也幌嘈疟厝恍?,”她說?!拔覀儗?huì)看到這種炒作遭到反擊。它會(huì)消退的?!?/p>

來源:麻省理工科技評(píng)論

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。

評(píng)論

暫無評(píng)論哦,快來評(píng)價(jià)一下吧!

下載界面新聞

微信公眾號(hào)

微博

麻省理工科技評(píng)論:生存風(fēng)險(xiǎn)如何成為 AI 中最大模因

AI 末日論的傳染擴(kuò)散。

編譯|巴比特資訊 Will Douglas Heaven

是誰在害怕機(jī)器人?似乎很多人都是這樣。目前,公開發(fā)表聲明或簽署公開信警告人工智能災(zāi)難性危險(xiǎn)的知名人士的數(shù)量多到驚人。

數(shù)以百計(jì)的科學(xué)家、商業(yè)領(lǐng)袖和政策制定者已經(jīng)發(fā)聲,包括從深度學(xué)習(xí)先驅(qū) Geoffrey Hinton 和 Yoshua Bengio,到頂級(jí)人工智能公司的首席執(zhí)行官,如 Sam Altman 和 Demis Hassabis,再到加州眾議員 Ted Lieu 和愛沙尼亞前總統(tǒng) Kersti Kaljulaid。

由所有這些人士和其他更多人簽署的最嚴(yán)酷的斷言是兩周前由舊金山的研究組織人工智能安全中心(CAIS)發(fā)布的 22 個(gè)字的聲明,它宣稱“減輕人工智能帶來的滅絕風(fēng)險(xiǎn)應(yīng)該是一個(gè)全球性的優(yōu)先事項(xiàng),與其他社會(huì)規(guī)模的風(fēng)險(xiǎn)如疫情和核戰(zhàn)爭一樣?!?/p>

這種措辭是經(jīng)過深思熟慮的。CAIS 主任 Dan Hendrycks 說:“如果我們要用羅夏測(cè)試式的陳述,我們會(huì)說‘生存風(fēng)險(xiǎn)’(existential risk),因?yàn)檫@對(duì)很多不同的人來說可能意味著很多東西。”但他們希望澄清:這并不是要搞垮經(jīng)濟(jì)。Hendrycks 說:“這就是為什么我們提到了‘滅絕風(fēng)險(xiǎn)’(risk of extinction),盡管我們很多人也擔(dān)心其他各種風(fēng)險(xiǎn)。”

我們以前也經(jīng)歷過這樣的情況:人工智能的厄運(yùn)伴隨著人工智能的炒作。但這一次感覺不同。奧弗頓窗口已經(jīng)轉(zhuǎn)移了。曾經(jīng)的極端觀點(diǎn)現(xiàn)在成了主流話題,不僅搶占了頭條,還引起了世界領(lǐng)導(dǎo)人的注意。研究技術(shù)社會(huì)影響的組織“數(shù)據(jù)與社會(huì)”(Data and Society)的研究主任 Jenna Burrell 說:“對(duì)人工智能表示擔(dān)憂的聲音已經(jīng)大到無法忽視?!?/p>

這是發(fā)生了什么?人工智能真的變得(更)危險(xiǎn)了嗎?為什么當(dāng)初引進(jìn)這項(xiàng)技術(shù)的人現(xiàn)在卻開始拉響警報(bào)?

誠然,這些觀點(diǎn)在該領(lǐng)域存在分歧。上周,Meta 公司的首席科學(xué)家、與 Hinton 和 Bengio 共同獲得 2018 年圖靈獎(jiǎng)的 Yann LeCun 稱末日論荒謬可笑”。人工智能公司 Cohere 的首席執(zhí)行官 Aidan Gomez 表示,這是“對(duì)我們時(shí)間的荒謬?yán)谩薄?/p>

同樣,其他人也對(duì)此嗤之以鼻。Signal 總裁 Meredith Whittaker 表示:“現(xiàn)在沒有比 1950 年有更多的證據(jù)表明,人工智能將構(gòu)成這些生存風(fēng)險(xiǎn)?!盬hittaker 是人工智能研究所(AI now Institute)的聯(lián)合創(chuàng)始人和前主任,該研究所是一家研究人工智能政策影響的研究實(shí)驗(yàn)室?!肮砉适率菚?huì)傳染的——害怕真的很令人興奮和刺激?!?/p>

“這也是一種略過當(dāng)今所發(fā)生的一切的方式,”Burrell 說?!八砻魑覀冞€沒有看到真正或嚴(yán)重的危害?!?/p>

一種古老的恐懼

自阿蘭 - 圖靈以來,對(duì)失控的、自我改進(jìn)的機(jī)器的擔(dān)憂一直存在。Vernor Vinge 和 Ray Kurzweil 等未來學(xué)家通過談?wù)撍^的“奇點(diǎn)”(Singularity)來普及這些想法,“奇點(diǎn)”是一個(gè)假想的日期,即人工智能超過人類智能并由機(jī)器接管。

但這種擔(dān)憂的核心是控制的問題:如果(或當(dāng))機(jī)器變得更聰明時(shí),人類如何保持優(yōu)勢(shì)地位?在 2017 年發(fā)表的一篇名為“人工智能如何構(gòu)成生存風(fēng)險(xiǎn)?”的論文中,多倫多大學(xué)人工智能哲學(xué)家 Karina Vold(她也簽署了 CAIS 的聲明)闡述了這種擔(dān)憂背后的基本論點(diǎn)。

論點(diǎn)有三個(gè)關(guān)鍵前提。第一,人類有可能造出一臺(tái)超級(jí)智能機(jī)器,它可以超越所有其他智能。第二,我們有可能無法控制能夠超越我們的超級(jí)智能體。第三,超級(jí)智能體有可能會(huì)做一些我們不希望它做的事情。

把所有這些結(jié)合起來,就有可能制造出一種機(jī)器,它會(huì)做我們不想讓它做的事情,包括消滅我們,而我們將無法阻止它。

這種場(chǎng)景也有不同的情況。當(dāng) Hinton 在五月份提出他對(duì)人工智能的擔(dān)憂時(shí),他舉了機(jī)器人重新調(diào)整電網(wǎng)路線以給自己提供更多電力的例子。但超級(jí)智能(或 AGI)并不是必需的。愚蠢的機(jī)器如果有太多的空間,也可能是災(zāi)難性的。許多場(chǎng)景涉及到輕率或惡意的部署,而不是自利的機(jī)器人。

加州大學(xué)伯克利分校的人工智能研究人員 Stuart Russell 和 Andrew Critch(他們也都簽署了 CAIS 的聲明)在上周在線發(fā)表的一篇論文中,給出了生存風(fēng)險(xiǎn)的分類法。這些風(fēng)險(xiǎn)的范圍包括:病毒式的提供建議的聊天機(jī)器人,告訴數(shù)百萬人從大學(xué)退學(xué),到追求有害經(jīng)濟(jì)目的的自主產(chǎn)業(yè),再到民族國家建造人工智能驅(qū)動(dòng)的超級(jí)武器。

在許多想象中的案例中,一個(gè)理論模型實(shí)現(xiàn)了其人類賦予的目標(biāo),但卻以一種對(duì)我們不利的方式來實(shí)現(xiàn)。Hendrycks 研究了深度學(xué)習(xí)模型在給定訓(xùn)練數(shù)據(jù)中未見的輸入時(shí)有時(shí)會(huì)以意想不到的方式表現(xiàn),對(duì)于他來說,人工智能系統(tǒng)可能是災(zāi)難性的,因?yàn)樗瞧茐男缘亩皇侨f能的。他說:“如果你給它一個(gè)目標(biāo),而它卻找到了外來的解決方案,那么它將帶我們踏上一段奇怪的旅程?!?/p>

這些可能的未來的問題是,它們依賴于一連串的“如果”,這使它們聽起來像科幻小說。Vold 自己也承認(rèn)了這一點(diǎn)。“由于構(gòu)成或引發(fā) [生存風(fēng)險(xiǎn)] 的事件是前所未有的,因此關(guān)于它們構(gòu)成這種威脅的論點(diǎn)本質(zhì)上必須是理論性的,”她寫道?!八鼈兊南∮行砸彩沟萌魏侮P(guān)于此類事件如何或何時(shí)發(fā)生的猜測(cè)都是主觀的,無法通過經(jīng)驗(yàn)驗(yàn)證?!?/p>

那么,為什么越來越多的人比以往任何時(shí)候都更相信這些想法?谷歌的人工智能研究員 Fran?ois Chollet 說:“不同的人出于不同的原因談?wù)擄L(fēng)險(xiǎn),他們的意思也可能不同?!钡@是一種難以抗拒的敘述:“生存風(fēng)險(xiǎn)一直是一個(gè)好故事”。

“這其中有一種不容忽視的神話、近乎宗教的元素,”Whittaker?!拔艺J(rèn)為我們需要認(rèn)識(shí)到,鑒于所描述的內(nèi)容沒有證據(jù)基礎(chǔ),它更接近于一種信仰,一種宗教狂熱,而不是科學(xué)話語?!?/p>

末日論的傳染擴(kuò)散

當(dāng)深度學(xué)習(xí)研究人員第一次開始取得一系列成功時(shí) -- 想想 Hinton 和他的同事們?cè)?2012 年 ImageNet 競賽中打破記錄的圖像識(shí)別分?jǐn)?shù),以及 DeepMind 在 2015 年首次以 AlphaGo 戰(zhàn)勝人類冠軍時(shí),炒作很快也變成了末日論?;艚鸷陀钪鎸W(xué)家 Martin Rees 等知名科學(xué)家,以及埃隆 - 馬斯克等知名科技領(lǐng)袖,都發(fā)出了生存風(fēng)險(xiǎn)的警報(bào)。但這些人物并不是人工智能專家。

八年前,深度學(xué)習(xí)先驅(qū)、時(shí)任百度首席科學(xué)家吳恩達(dá)(Andrew Ng)站在圣何塞的講臺(tái)上,對(duì)這個(gè)想法一笑置之。

“在遙遠(yuǎn)的未來,可能會(huì)出現(xiàn)一場(chǎng)殺手機(jī)器人競賽,”吳恩達(dá)在 2015 年 Nvidia GPU 技術(shù)大會(huì)上告訴觀眾?!暗医裉觳⒉恢铝τ诜乐谷斯ぶ悄茏兊眯皭海拖裎也粨?dān)心火星上人口過剩的問題。”(科技新聞網(wǎng)站 The Register 當(dāng)時(shí)報(bào)道了吳恩達(dá)的這番話。)

吳恩達(dá)于 2011 年共同創(chuàng)立了谷歌人工智能實(shí)驗(yàn)室,現(xiàn)任 Landing AI 首席執(zhí)行官,他在此后在采訪中不斷重復(fù)著這句話。但現(xiàn)在的他不那么樂觀了?!拔冶3珠_放的態(tài)度,正在與一些人交談以了解更多信息,”他告訴我?!翱焖俚陌l(fā)展讓科學(xué)家們重新思考風(fēng)險(xiǎn)?!?/p>

和許多人一樣,吳恩達(dá)對(duì)生成式人工智能的快速發(fā)展及其被濫用的可能性表示擔(dān)憂。他指出,上個(gè)月,一個(gè)被廣泛傳播的由 AI 生成的五角大樓的爆炸圖像嚇壞了人們,連著股票市場(chǎng)也跟著下跌。

“不幸的是,人工智能如此強(qiáng)大,它似乎也可能會(huì)導(dǎo)致巨大的問題,”吳恩達(dá)說。但他沒有談到殺手機(jī)器人:“現(xiàn)在,我仍然很難看到人工智能會(huì)如何導(dǎo)致我們的滅絕”。

與之前不同的是人們對(duì)人工智能能做什么的廣泛認(rèn)識(shí)。去年年底,ChatGPT 將這項(xiàng)技術(shù)推向了公眾?!叭斯ぶ悄芡蝗怀蔀橹髁鞯臒衢T話題,”Chollet 說道?!叭藗冋谡J(rèn)真對(duì)待人工智能,因?yàn)樗麄儗⒛芰Φ耐蝗伙w躍視為未來更多飛躍的預(yù)兆?!?/p>

此外,與聊天機(jī)器人對(duì)話的經(jīng)歷也會(huì)讓人感到不安。對(duì)話是一種通常被理解為人們與其他人一起做的事情。Whittaker 說:“它為人工智能像人類或有感知能力的對(duì)話者這一想法增添了一種合理性?!薄拔艺J(rèn)為這讓人們相信,如果人工智能可以模擬人類交流,它也可以做 XYZ?!?/p>

“這就是我開始覺得關(guān)于生存風(fēng)險(xiǎn)的對(duì)話有些適合的原因 -- 在沒有證據(jù)的情況下進(jìn)行推斷,”她說。

展望未來

我們有理由感到憤慨。隨著監(jiān)管機(jī)構(gòu)對(duì)科技行業(yè)的追趕,擺在桌面上的問題是什么樣的活動(dòng)應(yīng)該或不應(yīng)該受到限制。突出長期風(fēng)險(xiǎn)而不是短期危害(如歧視性雇用或錯(cuò)誤信息),使監(jiān)管者的注意力重新集中在未來的假想問題上。

Burrell 說:“我懷疑真正的監(jiān)管限制的威脅已經(jīng)推動(dòng)人們采取了一種立場(chǎng)。談?wù)撋骘L(fēng)險(xiǎn)可能會(huì)驗(yàn)證監(jiān)管者的擔(dān)憂,而不會(huì)破壞商業(yè)機(jī)會(huì)?!彼f:“背叛人類的超級(jí)智能 AI 聽起來很可怕,但這顯然也是尚未發(fā)生的事情?!?/p>

夸大對(duì)生存風(fēng)險(xiǎn)的擔(dān)憂在其他方面也有利于商業(yè)。Chollet 指出,頂級(jí)人工智能公司需要我們認(rèn)為 AGI 即將到來,而他們就是建造 AGI 的人。他說:“如果你想讓人們認(rèn)為你正在研究的東西是強(qiáng)大的,那么讓他們害怕它是一個(gè)好主意?!?/p>

Whittaker 也持類似觀點(diǎn)。她說:“把自己塑造成一個(gè)可能比人類更強(qiáng)大的實(shí)體的創(chuàng)造者是一件重要的事情?!?/p>

如果僅僅是營銷或炒作,這些都不重要。但決定什么是風(fēng)險(xiǎn),什么不是風(fēng)險(xiǎn),會(huì)有相應(yīng)的后果。在一個(gè)預(yù)算和注意力有限的世界里,沒有核戰(zhàn)爭那么極端的傷害可能會(huì)被忽視,因?yàn)槲覀冋J(rèn)為它們不是優(yōu)先事項(xiàng)。

“這是一個(gè)重要的問題,尤其是在人們?cè)絹碓疥P(guān)注安全和保障作為政策干預(yù)的狹窄框架的情況下,”AI Now 研究所的常務(wù)董事 Sarah Myers West 說。

當(dāng)首相 Rishi Sunak 在 5 月與包括 Sam Altman 和 Demis Hassabis 在內(nèi)的人工智能公司負(fù)責(zé)人會(huì)面時(shí),英國政府發(fā)表聲明說:“首相和首席執(zhí)行官們討論了該技術(shù)的風(fēng)險(xiǎn),從虛假信息和國家安全,到生存威脅”。

此前一周,Altman 告訴美國參議院,他最擔(dān)心的是人工智能產(chǎn)業(yè)會(huì)對(duì)世界造成重大傷害。Altman 的證詞引發(fā)了人們對(duì)建立新型機(jī)構(gòu)來解決這種前所未有的危害的呼聲。

隨著奧弗頓窗口的轉(zhuǎn)移,危害是否已經(jīng)造成?“如果我們談?wù)摰氖沁b遠(yuǎn)的未來,如果我們談?wù)摰氖巧裨挵愕娘L(fēng)險(xiǎn),那么我們就完全把問題重塑為一個(gè)存在于幻想世界的問題,其解決方案也可以存在于幻想世界,”Whittaker 說。

但 Whittaker 也指出,圍繞人工智能的政策討論已經(jīng)持續(xù)了多年,比最近這種恐懼要長。“我不相信必然性,”她說?!拔覀儗?huì)看到這種炒作遭到反擊。它會(huì)消退的。”

來源:麻省理工科技評(píng)論

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。