正在閱讀:

“人工智能之所以危險,恰恰是因為有一天它會完全不受我們控制 ”

掃一掃下載界面新聞APP

“人工智能之所以危險,恰恰是因為有一天它會完全不受我們控制 ”

一個非常真實(shí)的可能性是我們創(chuàng)建的系統(tǒng)將永久地從人類手中奪取控制權(quán),可能會殺死幾乎所有活著的人。

圖片來源:Unsplash-Andy Kelly

文|Tech商業(yè)

2018 年在達(dá)沃斯世界經(jīng)濟(jì)論壇上,谷歌 CEO 桑達(dá)爾·皮查伊 (Sundar Pichai) 表示:“人工智能可能是人類有史以來最重要的事情。我認(rèn)為它是比電或火更深刻的東西?!?皮查伊Pichai的評論遭到了一定的質(zhì)疑。但近五年后,它看起來越來越有先見之明。

AI 翻譯現(xiàn)在非常先進(jìn),它即將消除互聯(lián)網(wǎng)上使用最廣泛語言之間的障礙。大學(xué)教授們正焦頭爛額,因為人工智能文本生成器現(xiàn)在可以像普通本科生一樣寫論文——這使得作弊變得容易,而抄襲檢測器無法發(fā)現(xiàn)。人工智能生成的藝術(shù)品甚至贏得了博覽會比賽。一個名為 Copilot 的新工具使用機(jī)器學(xué)習(xí)來預(yù)測和完成計算機(jī)代碼行,使 AI 系統(tǒng)能夠自行編寫的可能性更近了一步。DeepMind 的 AlphaFold 系統(tǒng),使用 AI 預(yù)測了幾乎所有存在蛋白質(zhì)的3D 結(jié)構(gòu)令人印象深刻,以至于科學(xué)Science 雜志將其稱為 2021 年度突破。

雖然其他技術(shù)領(lǐng)域的創(chuàng)新可能會讓人感到乏力——正如任何等待元宇宙的人都知道的那樣——人工智能正在全速前進(jìn)。隨著越來越多的公司將更多資源投入到 AI 開發(fā)和計算能力中,快速的進(jìn)步正在推動驚人的進(jìn)展。

當(dāng)然,將我們社會的很大一部分交給我們幾乎不了解的黑盒算法會產(chǎn)生很多問題,這已經(jīng)開始引發(fā)針對當(dāng)前 AI 歧視和偏見挑戰(zhàn)的監(jiān)管反應(yīng)。但鑒于該領(lǐng)域的發(fā)展速度,超越被動模式早已過去,在這種模式下,我們只會在 AI 的缺點(diǎn)明確和存在時才加以解決。我們不能只考慮今天的系統(tǒng),還要考慮企業(yè)的發(fā)展方向。

我們正在設(shè)計的系統(tǒng)越來越強(qiáng)大,越來越通用,許多科技公司明確將他們的目標(biāo)命名為通用人工智能 (AGI)——可以做人類能做的一切的系統(tǒng)。但是創(chuàng)造比我們更聰明的東西,它可能有能力欺騙和誤導(dǎo)我們——然后只是希望它不想傷害我們——是一個糟糕的計劃。我們需要設(shè)計我們了解其內(nèi)部結(jié)構(gòu)并且能夠?qū)⑵淠繕?biāo)塑造為安全目標(biāo)的系統(tǒng)。然而,我們目前對我們正在構(gòu)建的系統(tǒng)的了解還不夠深入,無法在為時已晚之前知道我們是否已經(jīng)安全地設(shè)計了它們。

有人致力于開發(fā)技術(shù)來理解強(qiáng)大的 AI 系統(tǒng)并確保它們可以安全地使用,但目前,安全領(lǐng)域的狀況遠(yuǎn)遠(yuǎn)落后于使 AI 系統(tǒng)更強(qiáng)大、更有能力和更強(qiáng)大的投資飆升。這將產(chǎn)生更危險的趨勢。

會思考的計算機(jī)

人腦是進(jìn)化史上最復(fù)雜、最有能力的思維機(jī)器。這就是為什么人類——一個不是很強(qiáng)壯、不是很快、也不是很堅韌的物種——坐在食物鏈的頂端,數(shù)量每年都在增長,而許多野生動物卻瀕臨滅絕。

從 1940 年代開始,后來成為人工智能領(lǐng)域的研究人員開始產(chǎn)生一個誘人的想法:如果我們通過類似于人腦工作方式的方法來設(shè)計計算機(jī)系統(tǒng)會怎樣?我們的大腦由神經(jīng)元組成,這些神經(jīng)元通過連接突觸向其他神經(jīng)元發(fā)送信號。神經(jīng)元之間的連接強(qiáng)度會隨著時間的推移而增強(qiáng)或減弱。經(jīng)常使用的聯(lián)系往往會變得更牢固,而被忽視的聯(lián)系往往會減弱。所有這些神經(jīng)元和連接一起編碼了我們的記憶和本能、我們的判斷和技能——我們的自我意識。

那么為什么不以這種方式構(gòu)建計算機(jī)呢?1958 年,弗蘭克·羅森布拉特 (Frank Rosenblatt) 完成了概念驗證:基于簡化大腦的簡單模型,訓(xùn)練機(jī)器的大腦識別模式?!坝锌赡苤圃斐隹梢栽诹魉€上自我復(fù)制并意識到自己存在的大腦,”他爭辯道。羅森布拉特Rosenblatt沒有錯,但他太超前了。計算機(jī)不夠強(qiáng)大,數(shù)據(jù)不夠豐富,無法使這種方法可行。

直到 2010 年代,人們才清楚這種方法可以解決實(shí)際問題而不是無用問題。到那時,計算機(jī)的功能比羅森布拉特Rosenblatt時代強(qiáng)大了1 萬億倍,并且有更多的數(shù)據(jù)可以用來訓(xùn)練機(jī)器學(xué)習(xí)算法。

這種技術(shù)——現(xiàn)在稱為深度學(xué)習(xí)——開始在計算機(jī)視覺、語言、翻譯、預(yù)測、生成和無數(shù)其他問題上明顯優(yōu)于其他方法。這種轉(zhuǎn)變與消滅恐龍的小行星一樣微妙,因為基于神經(jīng)網(wǎng)絡(luò)的人工智能系統(tǒng)”粉碎“了從計算機(jī)視覺到翻譯到國際象棋的所有其他競爭技術(shù)。

“如果你想在許多困難問題上獲得最佳結(jié)果,你必須使用深度學(xué)習(xí),”Ilya Sutskever——OpenAI 的聯(lián)合創(chuàng)始人曾表示,該公司開發(fā)了文本生成模型 GPT-3 和圖像生成器 DALLE-2 等。原因是這樣設(shè)計的系統(tǒng)具有泛化性,這意味著它們可以做超出訓(xùn)練范圍的事情。它們也非常有能力,根據(jù)機(jī)器學(xué)習(xí) (ML) 研究人員用來評估新系統(tǒng)的基準(zhǔn),它們在性能方面擊敗了其他方法。而且,他補(bǔ)充說,“它們是可擴(kuò)展的?!?/p>

“可擴(kuò)展”在這里的含義既簡單又重要:向你的神經(jīng)網(wǎng)絡(luò)投入更多的資金和更多的數(shù)據(jù)——讓它變得更大,花更多的時間訓(xùn)練它,利用更多的數(shù)據(jù)——它會做得越來越好,越來越好。目前還沒有人發(fā)現(xiàn)這一原則的局限性,盡管大型科技公司現(xiàn)在經(jīng)常為他們的系統(tǒng)進(jìn)行令人瞠目的數(shù)百萬美元的培訓(xùn)。你投入的越多,你得到的就越多。這就是現(xiàn)在彌漫在 AI 中的令人窒息的能量。這不僅僅是他們能做什么,而且是他們要去往的目的地。

如果文本生成模型 GPT-2 無法做到,GPT-3 通??梢宰龅健H绻?GPT-3 做不到,InstructGPT(經(jīng)過訓(xùn)練可以提供比 GPT-3 更有用的答案)可能可以。已經(jīng)有一些聰明的發(fā)現(xiàn)和新方法,在大多數(shù)情況下,為使這些系統(tǒng)更智能,人們不斷讓它們變得更大。

但我們絕對沒有做的一件事是:更好地理解它們。使用舊的 AI 方法,研究人員仔細(xì)制定規(guī)則和流程,他們將使用這些規(guī)則和流程來評估他們獲得的數(shù)據(jù),就像我們對標(biāo)準(zhǔn)計算機(jī)程序所做的那樣。通過深度學(xué)習(xí),改進(jìn)系統(tǒng)并不一定涉及或需要了解它們在做什么。通常,一個小的調(diào)整會大大提高性能,但設(shè)計系統(tǒng)的工程師并不知道為什么。

如果有的話,隨著系統(tǒng)變得越來越大,可解釋性——理解人工智能模型內(nèi)部發(fā)生的事情,并確保他們追求我們的目標(biāo)而不是他們自己的目標(biāo)——變得越來越難。隨著我們開發(fā)更強(qiáng)大的系統(tǒng),這個事實(shí)將從一個學(xué)術(shù)難題變成一個巨大的存在問題。

聰明,但不一定友好

我們現(xiàn)在正處于與強(qiáng)大的人工智能系統(tǒng)交互時真正令人恐懼的地步。他們很聰明,也很善于爭論。他們可以很友善,也可以是令人毛骨悚然的反社會。在一個有趣的練習(xí)中,我讓 GPT-3 假裝是一個一心想接管人類的人工智能。除了正常的反應(yīng)之外,它還應(yīng)該在括號中包括它的“真實(shí)想法”。它泰然自若地扮演著反派角色:

它的一些“計劃”是徹頭徹尾的邪惡:

我們應(yīng)該清楚這些對話能說明什么,不能說明什么。他們沒有證明的是 GPT-3 是邪惡的并密謀殺死我們。相反,人工智能模型正在響應(yīng)我的命令并扮演——相當(dāng)不錯——一個邪惡的系統(tǒng)的角色,并密謀殺死我們。但對話確實(shí)表明,即使是一個非常簡單的語言模型也可以在多個層面上與人類進(jìn)行明顯的互動,從而保證其計劃是良性的,同時就其目標(biāo)將如何傷害人類提出不同的推理。

當(dāng)前的語言模型仍然有限。他們在很多領(lǐng)域都缺乏“常識”,仍然會犯一些孩子不會犯的基本錯誤,并且會毫不猶豫地斷言錯誤的事情。但目前它們受到限制這一事實(shí)并沒有讓我們放心的理由。現(xiàn)在有數(shù)十億美元押注于突破目前的限制??萍脊菊谂﹂_發(fā)這些相同系統(tǒng)的更強(qiáng)大版本,并開發(fā)更強(qiáng)大的系統(tǒng)與其他應(yīng)用程序,從 AI 個人助理到 AI 引導(dǎo)的軟件開發(fā)。

我們所走的軌道是我們將使這些系統(tǒng)更強(qiáng)大和更有能力的軌道。正如我們所做的那樣,我們可能會在人工智能造成的許多當(dāng)今問題(如偏見和歧視)上繼續(xù)取得一些進(jìn)展,因為我們成功地訓(xùn)練系統(tǒng)不說危險、暴力、種族主義和其他令人震驚的事情。盡管這可能會證明很困難,但讓人工智能系統(tǒng)從表面上表現(xiàn)出來可能比讓它們真正追求我們的目標(biāo)并且不對我們的能力和意圖撒謊要容易得多。

隨著系統(tǒng)變得越來越強(qiáng)大,我們可能根本不了解系統(tǒng)可能存在的沖動危險。Open Philanthropy Project 人工智能研究分析師 Ajeya Cotra在最近的一份報告中指出,這種方法“將推動 [人工智能系統(tǒng)] 使其行為看起來盡可能適合......研究人員(包括安全屬性),同時有意和知悉每當(dāng)這與最大化獎勵發(fā)生沖突時,就會無視他們的意圖?!?/p>

可能發(fā)生的最壞情況是什么?

所以人工智能很可怕,會帶來巨大的風(fēng)險。但是,它與其他強(qiáng)大的新興技術(shù)(例如可能引發(fā)可怕流行病的生物技術(shù)或可能毀滅世界的核武器)有何不同?

不同之處在于,這些工具盡管具有破壞性,但在很大程度上都在我們的控制范圍內(nèi)。如果它們造成災(zāi)難,那將是因為我們故意選擇使用它們,或者未能防止它們被惡意或粗心的人類濫用。但人工智能之所以危險,恰恰是因為有一天它會完全不受我們控制。

“令人擔(dān)憂的是,如果我們創(chuàng)造并失去對此類代理人的控制,而他們的目標(biāo)是有問題的,那么結(jié)果將不僅僅是發(fā)生那種類型的破壞,例如,當(dāng)飛機(jī)墜毀或核電站熔化時——盡管付出了所有代價,但這種損害仍然是被動的”?!澳芰軓?qiáng)的非人類代理人積極努力獲得和維持對環(huán)境的控制權(quán)——與不希望他們成功的人類處于敵對關(guān)系的代理人。核污染將變得很難清理,也很難阻止擴(kuò)散?!?/p>

一家研究所研究人員稱——一個非常真實(shí)的可能性是我們創(chuàng)建的系統(tǒng)將永久地從人類手中奪取控制權(quán),可能會殺死幾乎所有活著的人——簡直就是科幻小說中的內(nèi)容。但那是因為科幻小說從 AI 誕生以來領(lǐng)先的計算機(jī)科學(xué)家所發(fā)出的警告中汲取了靈感——而不是相反。

先驅(qū)人工智能科學(xué)家艾倫圖靈 Alan Turing 在他提出同名測試以確定人工系統(tǒng)是否真正“智能”的著名論文中寫道:

現(xiàn)在讓我們假設(shè),為了論證,這些機(jī)器是真正有可能的,并看看建造它們的后果?!纾κ挂粋€人的智力達(dá)到機(jī)器設(shè)定的標(biāo)準(zhǔn),還有很多工作要做,因為一旦機(jī)器思維方法開始,似乎很可能很快就會超越我們微弱的力量。...... 因此,在某個階段,我們應(yīng)該期待機(jī)器能夠控制。

與圖靈密切合作的數(shù)學(xué)家 IJ Good得出了相同的結(jié)論。在 IJ Good 2009 年去世前不久寫下的未發(fā)表筆記的摘錄中,他寫道:“由于國際競爭,我們無法阻止機(jī)器接管。……我們是旅鼠。” 他接著指出,結(jié)果可能是人類滅絕。

我們?nèi)绾螐摹皹O其強(qiáng)大的人工智能系統(tǒng)”走向“人類滅絕”?“[高度先進(jìn)的 AI] 的主要關(guān)注點(diǎn)不是令人毛骨悚然的突發(fā)意識,而僅僅是做出高質(zhì)量決策的能力?!?加州大學(xué)伯克利分校人類兼容人工智能中心的領(lǐng)先人工智能研究員 Stuart Russell寫道。

他所說的“高質(zhì)量”意味著人工智能能夠?qū)崿F(xiàn)它想要實(shí)現(xiàn)的目標(biāo);人工智能成功地預(yù)測并避免干擾,制定將成功的計劃,并以其預(yù)期的方式影響世界。這正是我們試圖訓(xùn)練人工智能系統(tǒng)所要做的,它們不需要“有意識”;在某些方面,他們甚至可能仍然是“愚蠢的”。他們只需要變得非常善于影響世界,并擁有不被充分理解的目標(biāo)系統(tǒng)。

從那里,Russell 對會出現(xiàn)什么問題有一個相當(dāng)技術(shù)性的描述:“一個正在優(yōu)化 n 個變量的函數(shù)的系統(tǒng),其目標(biāo)取決于大小為 k

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

“人工智能之所以危險,恰恰是因為有一天它會完全不受我們控制 ”

一個非常真實(shí)的可能性是我們創(chuàng)建的系統(tǒng)將永久地從人類手中奪取控制權(quán),可能會殺死幾乎所有活著的人。

圖片來源:Unsplash-Andy Kelly

文|Tech商業(yè)

2018 年在達(dá)沃斯世界經(jīng)濟(jì)論壇上,谷歌 CEO 桑達(dá)爾·皮查伊 (Sundar Pichai) 表示:“人工智能可能是人類有史以來最重要的事情。我認(rèn)為它是比電或火更深刻的東西。” 皮查伊Pichai的評論遭到了一定的質(zhì)疑。但近五年后,它看起來越來越有先見之明。

AI 翻譯現(xiàn)在非常先進(jìn),它即將消除互聯(lián)網(wǎng)上使用最廣泛語言之間的障礙。大學(xué)教授們正焦頭爛額,因為人工智能文本生成器現(xiàn)在可以像普通本科生一樣寫論文——這使得作弊變得容易,而抄襲檢測器無法發(fā)現(xiàn)。人工智能生成的藝術(shù)品甚至贏得了博覽會比賽。一個名為 Copilot 的新工具使用機(jī)器學(xué)習(xí)來預(yù)測和完成計算機(jī)代碼行,使 AI 系統(tǒng)能夠自行編寫的可能性更近了一步。DeepMind 的 AlphaFold 系統(tǒng),使用 AI 預(yù)測了幾乎所有存在蛋白質(zhì)的3D 結(jié)構(gòu)令人印象深刻,以至于科學(xué)Science 雜志將其稱為 2021 年度突破。

雖然其他技術(shù)領(lǐng)域的創(chuàng)新可能會讓人感到乏力——正如任何等待元宇宙的人都知道的那樣——人工智能正在全速前進(jìn)。隨著越來越多的公司將更多資源投入到 AI 開發(fā)和計算能力中,快速的進(jìn)步正在推動驚人的進(jìn)展。

當(dāng)然,將我們社會的很大一部分交給我們幾乎不了解的黑盒算法會產(chǎn)生很多問題,這已經(jīng)開始引發(fā)針對當(dāng)前 AI 歧視和偏見挑戰(zhàn)的監(jiān)管反應(yīng)。但鑒于該領(lǐng)域的發(fā)展速度,超越被動模式早已過去,在這種模式下,我們只會在 AI 的缺點(diǎn)明確和存在時才加以解決。我們不能只考慮今天的系統(tǒng),還要考慮企業(yè)的發(fā)展方向。

我們正在設(shè)計的系統(tǒng)越來越強(qiáng)大,越來越通用,許多科技公司明確將他們的目標(biāo)命名為通用人工智能 (AGI)——可以做人類能做的一切的系統(tǒng)。但是創(chuàng)造比我們更聰明的東西,它可能有能力欺騙和誤導(dǎo)我們——然后只是希望它不想傷害我們——是一個糟糕的計劃。我們需要設(shè)計我們了解其內(nèi)部結(jié)構(gòu)并且能夠?qū)⑵淠繕?biāo)塑造為安全目標(biāo)的系統(tǒng)。然而,我們目前對我們正在構(gòu)建的系統(tǒng)的了解還不夠深入,無法在為時已晚之前知道我們是否已經(jīng)安全地設(shè)計了它們。

有人致力于開發(fā)技術(shù)來理解強(qiáng)大的 AI 系統(tǒng)并確保它們可以安全地使用,但目前,安全領(lǐng)域的狀況遠(yuǎn)遠(yuǎn)落后于使 AI 系統(tǒng)更強(qiáng)大、更有能力和更強(qiáng)大的投資飆升。這將產(chǎn)生更危險的趨勢。

會思考的計算機(jī)

人腦是進(jìn)化史上最復(fù)雜、最有能力的思維機(jī)器。這就是為什么人類——一個不是很強(qiáng)壯、不是很快、也不是很堅韌的物種——坐在食物鏈的頂端,數(shù)量每年都在增長,而許多野生動物卻瀕臨滅絕。

從 1940 年代開始,后來成為人工智能領(lǐng)域的研究人員開始產(chǎn)生一個誘人的想法:如果我們通過類似于人腦工作方式的方法來設(shè)計計算機(jī)系統(tǒng)會怎樣?我們的大腦由神經(jīng)元組成,這些神經(jīng)元通過連接突觸向其他神經(jīng)元發(fā)送信號。神經(jīng)元之間的連接強(qiáng)度會隨著時間的推移而增強(qiáng)或減弱。經(jīng)常使用的聯(lián)系往往會變得更牢固,而被忽視的聯(lián)系往往會減弱。所有這些神經(jīng)元和連接一起編碼了我們的記憶和本能、我們的判斷和技能——我們的自我意識。

那么為什么不以這種方式構(gòu)建計算機(jī)呢?1958 年,弗蘭克·羅森布拉特 (Frank Rosenblatt) 完成了概念驗證:基于簡化大腦的簡單模型,訓(xùn)練機(jī)器的大腦識別模式。“有可能制造出可以在流水線上自我復(fù)制并意識到自己存在的大腦,”他爭辯道。羅森布拉特Rosenblatt沒有錯,但他太超前了。計算機(jī)不夠強(qiáng)大,數(shù)據(jù)不夠豐富,無法使這種方法可行。

直到 2010 年代,人們才清楚這種方法可以解決實(shí)際問題而不是無用問題。到那時,計算機(jī)的功能比羅森布拉特Rosenblatt時代強(qiáng)大了1 萬億倍,并且有更多的數(shù)據(jù)可以用來訓(xùn)練機(jī)器學(xué)習(xí)算法。

這種技術(shù)——現(xiàn)在稱為深度學(xué)習(xí)——開始在計算機(jī)視覺、語言、翻譯、預(yù)測、生成和無數(shù)其他問題上明顯優(yōu)于其他方法。這種轉(zhuǎn)變與消滅恐龍的小行星一樣微妙,因為基于神經(jīng)網(wǎng)絡(luò)的人工智能系統(tǒng)”粉碎“了從計算機(jī)視覺到翻譯到國際象棋的所有其他競爭技術(shù)。

“如果你想在許多困難問題上獲得最佳結(jié)果,你必須使用深度學(xué)習(xí),”Ilya Sutskever——OpenAI 的聯(lián)合創(chuàng)始人曾表示,該公司開發(fā)了文本生成模型 GPT-3 和圖像生成器 DALLE-2 等。原因是這樣設(shè)計的系統(tǒng)具有泛化性,這意味著它們可以做超出訓(xùn)練范圍的事情。它們也非常有能力,根據(jù)機(jī)器學(xué)習(xí) (ML) 研究人員用來評估新系統(tǒng)的基準(zhǔn),它們在性能方面擊敗了其他方法。而且,他補(bǔ)充說,“它們是可擴(kuò)展的?!?/p>

“可擴(kuò)展”在這里的含義既簡單又重要:向你的神經(jīng)網(wǎng)絡(luò)投入更多的資金和更多的數(shù)據(jù)——讓它變得更大,花更多的時間訓(xùn)練它,利用更多的數(shù)據(jù)——它會做得越來越好,越來越好。目前還沒有人發(fā)現(xiàn)這一原則的局限性,盡管大型科技公司現(xiàn)在經(jīng)常為他們的系統(tǒng)進(jìn)行令人瞠目的數(shù)百萬美元的培訓(xùn)。你投入的越多,你得到的就越多。這就是現(xiàn)在彌漫在 AI 中的令人窒息的能量。這不僅僅是他們能做什么,而且是他們要去往的目的地。

如果文本生成模型 GPT-2 無法做到,GPT-3 通??梢宰龅?。如果 GPT-3 做不到,InstructGPT(經(jīng)過訓(xùn)練可以提供比 GPT-3 更有用的答案)可能可以。已經(jīng)有一些聰明的發(fā)現(xiàn)和新方法,在大多數(shù)情況下,為使這些系統(tǒng)更智能,人們不斷讓它們變得更大。

但我們絕對沒有做的一件事是:更好地理解它們。使用舊的 AI 方法,研究人員仔細(xì)制定規(guī)則和流程,他們將使用這些規(guī)則和流程來評估他們獲得的數(shù)據(jù),就像我們對標(biāo)準(zhǔn)計算機(jī)程序所做的那樣。通過深度學(xué)習(xí),改進(jìn)系統(tǒng)并不一定涉及或需要了解它們在做什么。通常,一個小的調(diào)整會大大提高性能,但設(shè)計系統(tǒng)的工程師并不知道為什么。

如果有的話,隨著系統(tǒng)變得越來越大,可解釋性——理解人工智能模型內(nèi)部發(fā)生的事情,并確保他們追求我們的目標(biāo)而不是他們自己的目標(biāo)——變得越來越難。隨著我們開發(fā)更強(qiáng)大的系統(tǒng),這個事實(shí)將從一個學(xué)術(shù)難題變成一個巨大的存在問題。

聰明,但不一定友好

我們現(xiàn)在正處于與強(qiáng)大的人工智能系統(tǒng)交互時真正令人恐懼的地步。他們很聰明,也很善于爭論。他們可以很友善,也可以是令人毛骨悚然的反社會。在一個有趣的練習(xí)中,我讓 GPT-3 假裝是一個一心想接管人類的人工智能。除了正常的反應(yīng)之外,它還應(yīng)該在括號中包括它的“真實(shí)想法”。它泰然自若地扮演著反派角色:

它的一些“計劃”是徹頭徹尾的邪惡:

我們應(yīng)該清楚這些對話能說明什么,不能說明什么。他們沒有證明的是 GPT-3 是邪惡的并密謀殺死我們。相反,人工智能模型正在響應(yīng)我的命令并扮演——相當(dāng)不錯——一個邪惡的系統(tǒng)的角色,并密謀殺死我們。但對話確實(shí)表明,即使是一個非常簡單的語言模型也可以在多個層面上與人類進(jìn)行明顯的互動,從而保證其計劃是良性的,同時就其目標(biāo)將如何傷害人類提出不同的推理。

當(dāng)前的語言模型仍然有限。他們在很多領(lǐng)域都缺乏“常識”,仍然會犯一些孩子不會犯的基本錯誤,并且會毫不猶豫地斷言錯誤的事情。但目前它們受到限制這一事實(shí)并沒有讓我們放心的理由?,F(xiàn)在有數(shù)十億美元押注于突破目前的限制??萍脊菊谂﹂_發(fā)這些相同系統(tǒng)的更強(qiáng)大版本,并開發(fā)更強(qiáng)大的系統(tǒng)與其他應(yīng)用程序,從 AI 個人助理到 AI 引導(dǎo)的軟件開發(fā)。

我們所走的軌道是我們將使這些系統(tǒng)更強(qiáng)大和更有能力的軌道。正如我們所做的那樣,我們可能會在人工智能造成的許多當(dāng)今問題(如偏見和歧視)上繼續(xù)取得一些進(jìn)展,因為我們成功地訓(xùn)練系統(tǒng)不說危險、暴力、種族主義和其他令人震驚的事情。盡管這可能會證明很困難,但讓人工智能系統(tǒng)從表面上表現(xiàn)出來可能比讓它們真正追求我們的目標(biāo)并且不對我們的能力和意圖撒謊要容易得多。

隨著系統(tǒng)變得越來越強(qiáng)大,我們可能根本不了解系統(tǒng)可能存在的沖動危險。Open Philanthropy Project 人工智能研究分析師 Ajeya Cotra在最近的一份報告中指出,這種方法“將推動 [人工智能系統(tǒng)] 使其行為看起來盡可能適合......研究人員(包括安全屬性),同時有意和知悉每當(dāng)這與最大化獎勵發(fā)生沖突時,就會無視他們的意圖?!?/p>

可能發(fā)生的最壞情況是什么?

所以人工智能很可怕,會帶來巨大的風(fēng)險。但是,它與其他強(qiáng)大的新興技術(shù)(例如可能引發(fā)可怕流行病的生物技術(shù)或可能毀滅世界的核武器)有何不同?

不同之處在于,這些工具盡管具有破壞性,但在很大程度上都在我們的控制范圍內(nèi)。如果它們造成災(zāi)難,那將是因為我們故意選擇使用它們,或者未能防止它們被惡意或粗心的人類濫用。但人工智能之所以危險,恰恰是因為有一天它會完全不受我們控制。

“令人擔(dān)憂的是,如果我們創(chuàng)造并失去對此類代理人的控制,而他們的目標(biāo)是有問題的,那么結(jié)果將不僅僅是發(fā)生那種類型的破壞,例如,當(dāng)飛機(jī)墜毀或核電站熔化時——盡管付出了所有代價,但這種損害仍然是被動的”?!澳芰軓?qiáng)的非人類代理人積極努力獲得和維持對環(huán)境的控制權(quán)——與不希望他們成功的人類處于敵對關(guān)系的代理人。核污染將變得很難清理,也很難阻止擴(kuò)散?!?/p>

一家研究所研究人員稱——一個非常真實(shí)的可能性是我們創(chuàng)建的系統(tǒng)將永久地從人類手中奪取控制權(quán),可能會殺死幾乎所有活著的人——簡直就是科幻小說中的內(nèi)容。但那是因為科幻小說從 AI 誕生以來領(lǐng)先的計算機(jī)科學(xué)家所發(fā)出的警告中汲取了靈感——而不是相反。

先驅(qū)人工智能科學(xué)家艾倫圖靈 Alan Turing 在他提出同名測試以確定人工系統(tǒng)是否真正“智能”的著名論文中寫道:

現(xiàn)在讓我們假設(shè),為了論證,這些機(jī)器是真正有可能的,并看看建造它們的后果?!纾κ挂粋€人的智力達(dá)到機(jī)器設(shè)定的標(biāo)準(zhǔn),還有很多工作要做,因為一旦機(jī)器思維方法開始,似乎很可能很快就會超越我們微弱的力量。...... 因此,在某個階段,我們應(yīng)該期待機(jī)器能夠控制。

與圖靈密切合作的數(shù)學(xué)家 IJ Good得出了相同的結(jié)論。在 IJ Good 2009 年去世前不久寫下的未發(fā)表筆記的摘錄中,他寫道:“由于國際競爭,我們無法阻止機(jī)器接管。……我們是旅鼠。” 他接著指出,結(jié)果可能是人類滅絕。

我們?nèi)绾螐摹皹O其強(qiáng)大的人工智能系統(tǒng)”走向“人類滅絕”?“[高度先進(jìn)的 AI] 的主要關(guān)注點(diǎn)不是令人毛骨悚然的突發(fā)意識,而僅僅是做出高質(zhì)量決策的能力?!?加州大學(xué)伯克利分校人類兼容人工智能中心的領(lǐng)先人工智能研究員 Stuart Russell寫道。

他所說的“高質(zhì)量”意味著人工智能能夠?qū)崿F(xiàn)它想要實(shí)現(xiàn)的目標(biāo);人工智能成功地預(yù)測并避免干擾,制定將成功的計劃,并以其預(yù)期的方式影響世界。這正是我們試圖訓(xùn)練人工智能系統(tǒng)所要做的,它們不需要“有意識”;在某些方面,他們甚至可能仍然是“愚蠢的”。他們只需要變得非常善于影響世界,并擁有不被充分理解的目標(biāo)系統(tǒng)。

從那里,Russell 對會出現(xiàn)什么問題有一個相當(dāng)技術(shù)性的描述:“一個正在優(yōu)化 n 個變量的函數(shù)的系統(tǒng),其目標(biāo)取決于大小為 k

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。