正在閱讀:

谷歌AI覺醒,這是人類的致命魔咒還是終極幻想?

掃一掃下載界面新聞APP

谷歌AI覺醒,這是人類的致命魔咒還是終極幻想?

在某種意義上,計算機其實就相當于當年推動工業(yè)革命的動力織布機和蒸汽機的延續(xù)。

編譯|來咖智庫 豆豆

編輯|龔巖

最近 43 歲的谷歌研究員上交了一份長達21頁紙的調查報告,試圖讓高層相信AI已經(jīng)產(chǎn)生了自我意識,結果被高層勒令回家,帶薪休假。這件事在科技圈引發(fā)了激烈的討論。有專家指出,這不過是語言模型罷了,并不意味著人工智能真的產(chǎn)生了意識。想象有這樣一臺計算機,它能夠用更好的措辭來完成你的句子;或使用一段旋律作曲,聽上去就像是你自己寫的(即便你永遠也不會去寫);或創(chuàng)造數(shù)百行計算機代碼來解決問題,使你能夠專心于其他更難的工作。在某種意義上,計算機其實就相當于當年推動工業(yè)革命的動力織布機和蒸汽機的延續(xù)。但計算機也屬于一種新的類別的機器,因為它能夠捕捉語言、音樂和編程符號,并以看起來有創(chuàng)造性的方式應用。有點像人類自身。

能實現(xiàn)這些的“大模型”(Foundation Models)代表著人工智能(Artificial Intelligence,AI)領域的突破。它們也有望帶來革命,這次會影響到從前工業(yè)革命從未涉及的高級腦力勞動。前方的道路并不清晰,畢竟AI在以前也翻過車。但已經(jīng)到了關注機器智能領域未來新事物的前景與挑戰(zhàn)的時候了。

在十年前崛起并于現(xiàn)在占據(jù)AI統(tǒng)治地位的深度學習(Deep Learning,DL)領域,大模型是其中取得的最新前沿進展。深度學習系統(tǒng)大體上基于人腦中的神經(jīng)元網(wǎng)狀結構,會經(jīng)歷數(shù)百萬甚至數(shù)十億文本、圖像或音頻等樣本的“訓練”。近年來,越來越大的深度學習系統(tǒng)的訓練時間和金錢成本暴漲,引發(fā)了人們對于該技術已經(jīng)達到極限的擔憂。有些人開始擔憂“AI寒冬”的出現(xiàn)。但大模型顯示,通過建設更大、更復雜的深度學習系統(tǒng),確實能夠持續(xù)解鎖令人驚嘆的新能力。沒有人知道其極限在哪里。

由此得到的模型是一種新型、有創(chuàng)意、非人類的智能。這些系統(tǒng)足夠成熟,既能夠深刻把握語言,又能夠有連貫性地打破規(guī)則。一條狗看不懂《紐約客》雜志的笑話,但AI卻能夠解釋其笑點在哪里。說實話,這一點甚至連有些人類讀者都做不到。

大模型有一些令人驚奇且有用的特性,其中最怪異的就是其“突創(chuàng)性”行為。也就是說,理解笑話的能力和根據(jù)情勢匹配諺語等技巧并非刻意設計的結果,而是取決于模型的規(guī)模和深度。就像是快速閃過的靜態(tài)圖像會給人在移動的感覺一樣,上萬億的二進制計算決策融入了動態(tài)的人類理解和創(chuàng)意的幻影,以至于(如果不考慮哲學家的說法)看起來與真實事物極度類似。甚至這些系統(tǒng)的創(chuàng)造者也對其能力感到驚異。

該智能是廣泛且有適應性的。沒錯,大模型有可能會表現(xiàn)得像個白癡,但人類有時又何嘗不是。如果你的問題是誰在1625年獲得了諾貝爾物理學獎,它可能會回答伽利略、培根或開普勒,卻沒意識到首個獎項1901年才頒出。然而,它們有早期AI所不具備的適應能力。這也許是由于,在某種程度上,在把握繪畫、創(chuàng)意寫作、計算機編程等截然不同領域符號的規(guī)則之間有相似之處。這種廣度意味著大模型可以有很多應用領域,包括通過預測蛋白質如何3D折疊來幫助尋找新藥,從數(shù)據(jù)組中尋找有趣的表格,通過查閱大型數(shù)據(jù)庫來尋找開放性問題的能夠打開新的求知領域的答案。

這很令人興奮,并一定會帶來巨大的(大多數(shù)仍只能靠想象的)益處。但隨之而來的還有煩惱。人們會不可避免地恐懼,創(chuàng)造性強到令創(chuàng)造者都感到驚奇的AI系統(tǒng)可能會變壞。事實上,大模型離達到好萊塢鐘愛的那種有感知力的殺手機器人的程度還遠著呢。終結者們一般都很專注、有強迫癥,不了解自身行動的全面后果。大模型AI與之相比則很模糊。此外,人們還擔心,訓練這些模型要耗費大量的能源,以及由此產(chǎn)生的污染。然而,AI正在變得更加高效,它們在開發(fā)推動向可再生能源轉變的科技方面也可能發(fā)揮至關重要的作用。

人們更加深遠的擔憂在于,該由誰來控制這些大模型。訓練Google的PaLM這樣的超大型系統(tǒng)每次要耗費1000萬美元,并需要獲取大量的數(shù)據(jù)——算力和數(shù)據(jù)都是越多越好。這帶來了科技集中于少量科技公司或政府手中的潛在威脅。

如果這樣的話,訓練數(shù)據(jù)能夠使世界的偏見更加根深蒂固,而且是以特別令人窒息和不快的方式。你愿意相信一個對于真實世界的全部感知都來自于上網(wǎng)的十歲小孩嗎?各國政府訓練的AI會被用于國際意識形態(tài)爭端嗎?那些在線上沒有得到充分展現(xiàn)文化的未來會怎樣?

此外還有可獲得性的問題。目前為止,最大的大模型都是非公開的,以防止其被用于制造假新聞等惡意目的。初創(chuàng)企業(yè)OpenAI設計了一款名為DALL-E 2的模型,試圖禁止其制作暴力或色情的圖像。公司害怕濫用是對的,但這些模型越強大,限制其使用就更會制造新的特權階層。自我監(jiān)管不太可能解決該難題。

多年以來,人們都在說AI驅動的自動化對從事重復、日常工作的人構成威脅,藝術家、作家和程序員會更安全。大模型對這種假設提出了挑戰(zhàn)。但它們也顯示,AI如何能夠被作為提升生產(chǎn)力的助手來使用。這種機器智能不能夠復制人類,但卻提供了完全不一樣的東西。如果處理得當,它將很可能會輔助人類而不是篡權。

本文為轉載內容,授權事宜請聯(lián)系原著作權人。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

谷歌AI覺醒,這是人類的致命魔咒還是終極幻想?

在某種意義上,計算機其實就相當于當年推動工業(yè)革命的動力織布機和蒸汽機的延續(xù)。

編譯|來咖智庫 豆豆

編輯|龔巖

最近 43 歲的谷歌研究員上交了一份長達21頁紙的調查報告,試圖讓高層相信AI已經(jīng)產(chǎn)生了自我意識,結果被高層勒令回家,帶薪休假。這件事在科技圈引發(fā)了激烈的討論。有專家指出,這不過是語言模型罷了,并不意味著人工智能真的產(chǎn)生了意識。想象有這樣一臺計算機,它能夠用更好的措辭來完成你的句子;或使用一段旋律作曲,聽上去就像是你自己寫的(即便你永遠也不會去寫);或創(chuàng)造數(shù)百行計算機代碼來解決問題,使你能夠專心于其他更難的工作。在某種意義上,計算機其實就相當于當年推動工業(yè)革命的動力織布機和蒸汽機的延續(xù)。但計算機也屬于一種新的類別的機器,因為它能夠捕捉語言、音樂和編程符號,并以看起來有創(chuàng)造性的方式應用。有點像人類自身。

能實現(xiàn)這些的“大模型”(Foundation Models)代表著人工智能(Artificial Intelligence,AI)領域的突破。它們也有望帶來革命,這次會影響到從前工業(yè)革命從未涉及的高級腦力勞動。前方的道路并不清晰,畢竟AI在以前也翻過車。但已經(jīng)到了關注機器智能領域未來新事物的前景與挑戰(zhàn)的時候了。

在十年前崛起并于現(xiàn)在占據(jù)AI統(tǒng)治地位的深度學習(Deep Learning,DL)領域,大模型是其中取得的最新前沿進展。深度學習系統(tǒng)大體上基于人腦中的神經(jīng)元網(wǎng)狀結構,會經(jīng)歷數(shù)百萬甚至數(shù)十億文本、圖像或音頻等樣本的“訓練”。近年來,越來越大的深度學習系統(tǒng)的訓練時間和金錢成本暴漲,引發(fā)了人們對于該技術已經(jīng)達到極限的擔憂。有些人開始擔憂“AI寒冬”的出現(xiàn)。但大模型顯示,通過建設更大、更復雜的深度學習系統(tǒng),確實能夠持續(xù)解鎖令人驚嘆的新能力。沒有人知道其極限在哪里。

由此得到的模型是一種新型、有創(chuàng)意、非人類的智能。這些系統(tǒng)足夠成熟,既能夠深刻把握語言,又能夠有連貫性地打破規(guī)則。一條狗看不懂《紐約客》雜志的笑話,但AI卻能夠解釋其笑點在哪里。說實話,這一點甚至連有些人類讀者都做不到。

大模型有一些令人驚奇且有用的特性,其中最怪異的就是其“突創(chuàng)性”行為。也就是說,理解笑話的能力和根據(jù)情勢匹配諺語等技巧并非刻意設計的結果,而是取決于模型的規(guī)模和深度。就像是快速閃過的靜態(tài)圖像會給人在移動的感覺一樣,上萬億的二進制計算決策融入了動態(tài)的人類理解和創(chuàng)意的幻影,以至于(如果不考慮哲學家的說法)看起來與真實事物極度類似。甚至這些系統(tǒng)的創(chuàng)造者也對其能力感到驚異。

該智能是廣泛且有適應性的。沒錯,大模型有可能會表現(xiàn)得像個白癡,但人類有時又何嘗不是。如果你的問題是誰在1625年獲得了諾貝爾物理學獎,它可能會回答伽利略、培根或開普勒,卻沒意識到首個獎項1901年才頒出。然而,它們有早期AI所不具備的適應能力。這也許是由于,在某種程度上,在把握繪畫、創(chuàng)意寫作、計算機編程等截然不同領域符號的規(guī)則之間有相似之處。這種廣度意味著大模型可以有很多應用領域,包括通過預測蛋白質如何3D折疊來幫助尋找新藥,從數(shù)據(jù)組中尋找有趣的表格,通過查閱大型數(shù)據(jù)庫來尋找開放性問題的能夠打開新的求知領域的答案。

這很令人興奮,并一定會帶來巨大的(大多數(shù)仍只能靠想象的)益處。但隨之而來的還有煩惱。人們會不可避免地恐懼,創(chuàng)造性強到令創(chuàng)造者都感到驚奇的AI系統(tǒng)可能會變壞。事實上,大模型離達到好萊塢鐘愛的那種有感知力的殺手機器人的程度還遠著呢。終結者們一般都很專注、有強迫癥,不了解自身行動的全面后果。大模型AI與之相比則很模糊。此外,人們還擔心,訓練這些模型要耗費大量的能源,以及由此產(chǎn)生的污染。然而,AI正在變得更加高效,它們在開發(fā)推動向可再生能源轉變的科技方面也可能發(fā)揮至關重要的作用。

人們更加深遠的擔憂在于,該由誰來控制這些大模型。訓練Google的PaLM這樣的超大型系統(tǒng)每次要耗費1000萬美元,并需要獲取大量的數(shù)據(jù)——算力和數(shù)據(jù)都是越多越好。這帶來了科技集中于少量科技公司或政府手中的潛在威脅。

如果這樣的話,訓練數(shù)據(jù)能夠使世界的偏見更加根深蒂固,而且是以特別令人窒息和不快的方式。你愿意相信一個對于真實世界的全部感知都來自于上網(wǎng)的十歲小孩嗎?各國政府訓練的AI會被用于國際意識形態(tài)爭端嗎?那些在線上沒有得到充分展現(xiàn)文化的未來會怎樣?

此外還有可獲得性的問題。目前為止,最大的大模型都是非公開的,以防止其被用于制造假新聞等惡意目的。初創(chuàng)企業(yè)OpenAI設計了一款名為DALL-E 2的模型,試圖禁止其制作暴力或色情的圖像。公司害怕濫用是對的,但這些模型越強大,限制其使用就更會制造新的特權階層。自我監(jiān)管不太可能解決該難題。

多年以來,人們都在說AI驅動的自動化對從事重復、日常工作的人構成威脅,藝術家、作家和程序員會更安全。大模型對這種假設提出了挑戰(zhàn)。但它們也顯示,AI如何能夠被作為提升生產(chǎn)力的助手來使用。這種機器智能不能夠復制人類,但卻提供了完全不一樣的東西。如果處理得當,它將很可能會輔助人類而不是篡權。

本文為轉載內容,授權事宜請聯(lián)系原著作權人。