文|Will Douglas Heaven
編譯|巴比特資訊
就在杰弗里 - 辛頓(Geoffrey Hinton)宣布退出谷歌這一重磅消息的四天前,我在倫敦北部一條街道的房子里見(jiàn)到了他。辛頓是深度學(xué)習(xí)的先驅(qū),他幫助開(kāi)發(fā)了現(xiàn)代人工智能核心的一些最重要的技術(shù),但在谷歌工作了十年后,他選擇辭職,專注于他目前對(duì)人工智能的新關(guān)注。
被 GPT-4 等新的大型語(yǔ)言模型的能力所震驚,辛頓希望提高公眾對(duì)他現(xiàn)在認(rèn)為可能伴隨其開(kāi)創(chuàng)技術(shù)的嚴(yán)重風(fēng)險(xiǎn)的認(rèn)識(shí)。
在我們的談話開(kāi)始時(shí),我在廚房的桌子旁坐下來(lái),辛頓開(kāi)始踱步。多年來(lái)因慢性背痛的困擾,他幾乎從不坐下。在接下來(lái)的一個(gè)小時(shí)里,我看著他從房間的一端走到另一端,我注視著他。他有很多話要說(shuō)。
這位 75 歲的計(jì)算機(jī)科學(xué)家因其在深度學(xué)習(xí)方面的工作,與 Yann LeCun 和 Yoshua Bengio 共同獲得了 2018 年圖靈獎(jiǎng),他說(shuō)他已經(jīng)準(zhǔn)備好轉(zhuǎn)變方向。“我太老了,無(wú)法從事需要記住大量細(xì)節(jié)的技術(shù)工作,”他告訴我。“我還好,但已大不如前,這令人煩惱?!?/p>
但這并不是他離開(kāi)谷歌的唯一原因。辛頓想把時(shí)間花在他所說(shuō)的“更多哲學(xué)工作”上,一個(gè)微小但對(duì)他而言非常真實(shí)的危險(xiǎn)上,即人工智能將變成一場(chǎng)災(zāi)難。
離開(kāi)谷歌可以讓他暢所欲言,而不用像谷歌高管那樣必須進(jìn)行自我審查。他說(shuō):“我想談?wù)撊斯ぶ悄艿陌踩珕?wèn)題,而不必?fù)?dān)心與谷歌業(yè)務(wù)的關(guān)聯(lián)。”“只要谷歌付我薪酬,我就不能這么做。”
當(dāng)然,這并不意味著辛頓對(duì)谷歌有任何不滿意?!斑@可能會(huì)讓你大吃一驚,”他說(shuō)?!拔蚁雮鬟_(dá)很多關(guān)于 Google 的優(yōu)點(diǎn),但如果我不在 Google 了,它們會(huì)更可信?!?/p>
辛頓說(shuō),新一代的大型語(yǔ)言模型 -- 特別是 OpenAI 在 3 月發(fā)布的 GPT-4-- 讓他意識(shí)到,機(jī)器正朝著比他想象的要聰明得多的方向發(fā)展。而他對(duì)這一情況可能發(fā)生的事情感到害怕。
“這些東西與我們完全不同,”他說(shuō)。“有時(shí)我覺(jué)得這就像外星人登陸了,而人們卻沒(méi)有意識(shí)到,因?yàn)樗麄兊挠⒄Z(yǔ)說(shuō)得很好?!?/p>
基石
辛頓最出名的是他在 1980 年代(與兩位同事)提出的一種叫做反向傳播的技術(shù)。簡(jiǎn)而言之,這是一種允許機(jī)器學(xué)習(xí)的算法。它支撐著今天幾乎所有的神經(jīng)網(wǎng)絡(luò),從計(jì)算機(jī)視覺(jué)系統(tǒng)到大型語(yǔ)言模型。
直到 2010 年代,通過(guò)反向傳播訓(xùn)練的神經(jīng)網(wǎng)絡(luò)的力量才真正產(chǎn)生了影響。辛頓與幾個(gè)研究生合作,表明該技術(shù)在讓計(jì)算機(jī)識(shí)別圖像中的物體方面比其他任何技術(shù)都好。此外,他們還訓(xùn)練了一個(gè)神經(jīng)網(wǎng)絡(luò)來(lái)預(yù)測(cè)一個(gè)句子中的下一個(gè)字母,這也是今天大型語(yǔ)言模型的前身。
其中一名研究生是 Ilya Sutskever,他后來(lái)共同創(chuàng)立了 OpenAI 并領(lǐng)導(dǎo)了 ChatGPT 的開(kāi)發(fā)。辛頓說(shuō):“我們最初意識(shí)到,這種東西可能會(huì)很神奇?!薄暗藗兓撕荛L(zhǎng)時(shí)間才意識(shí)到,這需要大規(guī)模進(jìn)行才能取得成功?!痹缭?20 世紀(jì) 80 年代,神經(jīng)網(wǎng)絡(luò)就是個(gè)笑話。當(dāng)時(shí)的主流觀點(diǎn)是符號(hào)人工智能,即智能涉及處理符號(hào),如文字或數(shù)字。
但辛頓并不相信。他研究了神經(jīng)網(wǎng)絡(luò),即大腦的軟件抽象,其中的神經(jīng)元和它們之間的連接由代碼表示。通過(guò)改變這些神經(jīng)元的連接方式 -- 改變用來(lái)表示它們的數(shù)字 -- 神經(jīng)網(wǎng)絡(luò)可以在飛行中重新接線。換句話說(shuō),它可以被用來(lái)學(xué)習(xí)。
“我父親是一名生物學(xué)家,所以我從生物學(xué)的角度思考問(wèn)題,”辛頓說(shuō)?!岸?hào)推理顯然不是生物智能的核心?!?/p>
“烏鴉可以解決難題,但它們沒(méi)有語(yǔ)言。它們不是通過(guò)存儲(chǔ)符號(hào)串并操縱它們來(lái)完成的。它們是通過(guò)改變大腦中神經(jīng)元之間的連接強(qiáng)度來(lái)實(shí)現(xiàn)的。因此,通過(guò)改變?nèi)斯ど窠?jīng)網(wǎng)絡(luò)中的連接強(qiáng)度來(lái)學(xué)習(xí)復(fù)雜的東西是可能的?!?/p>
一種新的智能
40 年來(lái),辛頓一直將人工神經(jīng)網(wǎng)絡(luò)視為模仿生物神經(jīng)網(wǎng)絡(luò)的拙劣嘗試。現(xiàn)在他認(rèn)為情況發(fā)生了變化:他認(rèn)為,在試圖模仿生物大腦的過(guò)程中,我們已經(jīng)想出了更好的辦法。他說(shuō):“當(dāng)你看到這一點(diǎn)時(shí)是很可怕的?!薄斑@是一個(gè)突然的翻轉(zhuǎn)?!?/p>
辛頓的擔(dān)心會(huì)讓很多人覺(jué)得是科幻小說(shuō)的內(nèi)容。但他是這樣思考的。
正如它們的名字所示,大型語(yǔ)言模型是由具有大量連接的大規(guī)模神經(jīng)網(wǎng)絡(luò)制成的。但與大腦相比,它們是微小的?!拔覀兊拇竽X有 100 萬(wàn)億個(gè)連接,”辛頓說(shuō)?!按笮驼Z(yǔ)言模型最多只有 5000 億,最多一萬(wàn)億。然而,GPT-4 的知識(shí)比任何人都多數(shù)百倍。所以也許它實(shí)際上有比我們更好的學(xué)習(xí)算法?!?/p>
與大腦相比,人們普遍認(rèn)為神經(jīng)網(wǎng)絡(luò)不善于學(xué)習(xí):需要大量的數(shù)據(jù)和能量來(lái)訓(xùn)練它們。另一方面,大腦可以迅速掌握新的想法和技能,使用的能量只有神經(jīng)網(wǎng)絡(luò)的一小部分。
“人們似乎擁有某種魔力,”辛頓說(shuō)?!暗灰惆堰@些大型語(yǔ)言模型中的一個(gè)拿出來(lái),并訓(xùn)練它做一些新的事情,這個(gè)論點(diǎn)就會(huì)不成立。它可以極快地學(xué)習(xí)新的任務(wù)?!?/p>
辛頓指的是“少樣本學(xué)習(xí)”,在這種情況下,經(jīng)過(guò)預(yù)訓(xùn)練的神經(jīng)網(wǎng)絡(luò),如大型語(yǔ)言模型,只需給幾個(gè)例子就可以訓(xùn)練它做一些新事情。例如,他指出,其中一些語(yǔ)言模型可以將一系列的邏輯語(yǔ)句串成一個(gè)論點(diǎn),即使它們從未接受過(guò)直接這么做的訓(xùn)練。
他說(shuō),在學(xué)習(xí)這樣一項(xiàng)任務(wù)的速度上,將預(yù)先訓(xùn)練好的大型語(yǔ)言模型與人類進(jìn)行比較,人類毫無(wú)優(yōu)勢(shì)。
大型語(yǔ)言模型制造了這么多東西,這又是怎么回事?人工智能研究人員將其稱為“幻覺(jué)”(盡管辛頓更喜歡“虛構(gòu)”一詞,因?yàn)樗切睦韺W(xué)的正確術(shù)語(yǔ)),這些錯(cuò)誤通常被視為技術(shù)的致命缺陷。產(chǎn)生這些錯(cuò)誤的趨勢(shì)使聊天機(jī)器人變得不可信,而且,許多人認(rèn)為,這表明這些模型沒(méi)有真正理解他們所說(shuō)的話。
對(duì)此,辛頓的答案是:胡說(shuō)八道是一個(gè)特點(diǎn),而不是一個(gè)錯(cuò)誤?!叭藗兛偸窃谔摌?gòu),”他說(shuō)。半真半假和錯(cuò)誤記憶的細(xì)節(jié)是人類談話的標(biāo)志:“虛構(gòu)是人類記憶的標(biāo)志。這些模型所做的與人一樣”
辛頓說(shuō),不同之處在于人類通?;蚨嗷蛏贂?huì)正確地構(gòu)思。對(duì) 他來(lái)說(shuō),編造東西不是問(wèn)題。計(jì)算機(jī)只需要多一點(diǎn)練習(xí)。
我們還期望計(jì)算機(jī)要么對(duì),要么錯(cuò),而不是介于兩者之間。“我們不期望它們像人一樣喋喋不休,”辛頓說(shuō)?!爱?dāng)一臺(tái)計(jì)算機(jī)這么做時(shí),我們認(rèn)為它犯了錯(cuò)誤。但換成人類,這就是人們工作的方式。問(wèn)題是大多數(shù)人對(duì)人類的工作方式有著無(wú)可奈何的錯(cuò)誤看法。”
當(dāng)然,大腦仍然比計(jì)算機(jī)做得更好:駕駛汽車、學(xué)習(xí)走路、想象未來(lái)。而且大腦可以靠一杯咖啡和一片吐司上完成這些任務(wù)。他說(shuō):“當(dāng)生物智能在進(jìn)化時(shí),它無(wú)法使用核電站。”
但辛頓的觀點(diǎn)是,如果我們?cè)敢庵Ц陡叩挠?jì)算成本,有一些關(guān)鍵的方法可以讓神經(jīng)網(wǎng)絡(luò)在學(xué)習(xí)方面擊敗生物。(值得停下來(lái)考慮一下這些成本在能源和碳方面意味著什么)。
學(xué)習(xí)只是辛頓論證的第一條線。第二條是交流。他說(shuō):“如果你或我學(xué)到了一些東西,并想把這些知識(shí)傳授給其他人,我們不能只是給他們發(fā)送一份副本?!薄暗铱梢杂幸蝗f(wàn)個(gè)神經(jīng)網(wǎng)絡(luò),每個(gè)都有自己的經(jīng)驗(yàn),它們中的任何一個(gè)都可以立即分享它們所學(xué)到的東西。這是巨大的區(qū)別。就好像我們有一萬(wàn)個(gè)人,只要有一個(gè)人學(xué)到了什么,我們所有人就都會(huì)知道。”
所有這些加起來(lái)是什么?辛頓現(xiàn)在認(rèn)為世界上有兩種類型的智能:動(dòng)物大腦和神經(jīng)網(wǎng)絡(luò)?!斑@是一種完全不同的智能形式,”他說(shuō)?!耙环N新的、更好的智能形式?!?/p>
這是一個(gè)巨大的主張。人工智能是一個(gè)兩極分化的領(lǐng)域:嘲笑的人大有所在,而同意的人也比比皆是。
對(duì)于這種新型智能(如果存在)的后果是有益的還是災(zāi)難性的,人們也存在分歧。他說(shuō):“你認(rèn)為超級(jí)智能是好是壞在很大程度上取決于你是一個(gè)樂(lè)觀主義者還是一個(gè)悲觀主義者?!薄叭绻阕屓藗児烙?jì)壞事發(fā)生的風(fēng)險(xiǎn),比如你家里有人得重病或被車撞的幾率是多少,樂(lè)觀主義者可能會(huì)說(shuō) 5%,悲觀主義者可能會(huì)說(shuō) 100%。而輕度抑郁癥患者會(huì)說(shuō)幾率可能在 40% 左右,而且他們通常是對(duì)的”。
辛頓是哪種人?“我有輕微的抑郁癥,”他說(shuō)。“這就是為什么我很害怕的原因?!?/p>
為什么會(huì)出錯(cuò)
辛頓擔(dān)心,這些工具能夠找出方法來(lái)操縱或殺死那些沒(méi)有為新技術(shù)做好準(zhǔn)備的人。
“我突然改變了對(duì)這些東西是否會(huì)比我們更聰明的看法?!彼f(shuō):“我認(rèn)為它們現(xiàn)在已經(jīng)非常接近了,它們?cè)谖磥?lái)會(huì)比我們更聰明。”“我們?nèi)绾卧谶@種情況下生存?”
他特別擔(dān)心,人們可以利用他親自注入生命的工具來(lái)傾斜一些最重要的人類經(jīng)歷的天平,特別是選舉和戰(zhàn)爭(zhēng)。
辛頓認(rèn)為,智能機(jī)器的下一步是有能力創(chuàng)建自己的子目標(biāo),即執(zhí)行一項(xiàng)任務(wù)所需的臨時(shí)步驟。他問(wèn)道,當(dāng)這種能力被應(yīng)用于本質(zhì)上不道德的東西時(shí)會(huì)發(fā)生什么?
目前,已經(jīng)有一些實(shí)驗(yàn)性項(xiàng)目,如 BabyAGI 和 AutoGPT,將聊天機(jī)器人與其他程序(如網(wǎng)絡(luò)瀏覽器或文字處理器)連接起來(lái),使它們能夠?qū)⒑?jiǎn)單的任務(wù)串聯(lián)起來(lái)。當(dāng)然,這些步驟很微小,但它們預(yù)示著一些人想把這項(xiàng)技術(shù)帶入的方向。辛頓說(shuō),即使壞人沒(méi)有奪取機(jī)器,子目標(biāo)也存在其他問(wèn)題。
“好吧,這里有一個(gè)幾乎總是對(duì)生物學(xué)有幫助的子目標(biāo):獲得更多能量。因此,可能發(fā)生的第一件事就是這些機(jī)器人會(huì)說(shuō),‘讓我們獲得更多能量吧。讓我們將所有電力重新路由到我的芯片。‘另一個(gè)重要的子目標(biāo)是復(fù)制更多的自己。聽(tīng)起來(lái)如何?”
Meta 公司的首席人工智能科學(xué)家 Yann LeCun 同意這個(gè)前提,但并不同意 Hinton 的擔(dān)心。LeCun 說(shuō):“毫無(wú)疑問(wèn),機(jī)器將在未來(lái)變得比人類更聰明 -- 在所有人類智能的領(lǐng)域?!薄斑@是一個(gè)關(guān)于何時(shí)和如何的問(wèn)題,而不是一個(gè)關(guān)于是否的問(wèn)題?!?/p>
但他對(duì)事情的發(fā)展方向有完全不同的看法?!蔽蚁嘈?,智能機(jī)器將為人類帶來(lái)新的復(fù)興,一個(gè)新的啟蒙時(shí)代,“LeCun 說(shuō)?!拔彝耆煌鈾C(jī)器會(huì)僅僅因?yàn)楦斆骶徒y(tǒng)治人類的想法,更不用說(shuō)毀滅人類了?!?/p>
“即使在人類中,我們當(dāng)中最聰明的人也不是最有統(tǒng)治力的人,”LeCun 說(shuō)?!白钣薪y(tǒng)治力的人絕對(duì)不是最聰明的。我們?cè)谡绾蜕探缬袩o(wú)數(shù)這樣的例子?!?/p>
蒙特利爾大學(xué)教授、蒙特利爾學(xué)習(xí)算法研究所科學(xué)主任 Yoshua Bengio 覺(jué)得更不可知。他說(shuō):“我聽(tīng)到有人詆毀這些恐懼,但我沒(méi)有看到任何堅(jiān)實(shí)的論據(jù)能讓我相信不存在 Geoff 認(rèn)為的那種規(guī)模的風(fēng)險(xiǎn)。但是,恐懼只有在促使我們采取行動(dòng)時(shí)才是有用的,”他說(shuō):“過(guò)度的恐懼可能會(huì)使人癱瘓,所以我們應(yīng)該嘗試將辯論保持在理性的水平上?!?/p>
向上看
辛頓的首要任務(wù)之一是嘗試與技術(shù)行業(yè)的領(lǐng)導(dǎo)者合作,看看他們是否能夠走到一起,就有哪些風(fēng)險(xiǎn)以及如何應(yīng)對(duì)這些風(fēng)險(xiǎn)達(dá)成一致。他認(rèn)為化學(xué)武器的國(guó)際禁令可能是如何著手遏制危險(xiǎn)人工智能的開(kāi)發(fā)和使用的一種模式。“這并非萬(wàn)無(wú)一失,但總的來(lái)說(shuō)人們不使用化學(xué)武器,”他說(shuō)。
Bengio 同意辛頓的觀點(diǎn),即這些問(wèn)題需要盡快在社會(huì)層面上解決。但他表示,人工智能的發(fā)展速度超過(guò)了社會(huì)能夠跟上的速度。這項(xiàng)技術(shù)的能力每隔幾個(gè)月就會(huì)躍進(jìn)一次;而立法、監(jiān)管和國(guó)際條約則需要幾年時(shí)間。
這讓 Bengio 懷疑,我們社會(huì)目前的組織方式 -- 在國(guó)家和全球?qū)用?-- 是否能夠應(yīng)對(duì)挑戰(zhàn)。“我相信我們應(yīng)該對(duì)我們星球的社會(huì)組織采用完全不同的模式的可能性持開(kāi)放態(tài)度,”他說(shuō)。
辛頓真的認(rèn)為他能讓足夠多的當(dāng)權(quán)者分享他的關(guān)注嗎?他不知道。幾周前,他看了部電影《不要抬頭》(Don’t Look Up),其中一顆小行星向地球撞去,但沒(méi)有人能就如何應(yīng)對(duì)達(dá)成一致,最后每個(gè)人都死了。
他說(shuō):“我認(rèn)為人工智能也是如此,其他難以解決的大問(wèn)題也是如此?!彼f(shuō):“美國(guó)甚至不能同意將突擊步槍從十幾歲的男孩手中拿走?!?/p>
辛頓的論點(diǎn)令人警醒。我贊同他對(duì)人們?cè)诿媾R嚴(yán)重威脅時(shí)集體無(wú)法采取行動(dòng)的悲觀評(píng)估。同樣真實(shí)的是,人工智能有可能造成真正的傷害 -- 破壞就業(yè)市場(chǎng),加劇不平等,使性別歧視和種族主義惡化等等。我們需要關(guān)注這些問(wèn)題。但我仍然無(wú)法從大型語(yǔ)言模型跳到機(jī)器人霸主。也許我是個(gè)樂(lè)觀主義者。
辛頓送我出來(lái)時(shí),天已經(jīng)變得灰暗潮濕?!昂煤孟硎馨桑?yàn)槟憧赡軟](méi)剩多少時(shí)間了,”他說(shuō)。他笑了笑,關(guān)上了門。
來(lái)源:麻省理工科技評(píng)論