正在閱讀:

硅谷預(yù)言家安德森最新長文:AI不會(huì)毀滅世界,反而可能拯救它

掃一掃下載界面新聞APP

硅谷預(yù)言家安德森最新長文:AI不會(huì)毀滅世界,反而可能拯救它

“人工智能是一臺(tái)機(jī)器——不會(huì)比你的烤面包機(jī)更有生命力?!?/p>

攝影:界面新聞 范劍磊

文|Tech商業(yè)

知名風(fēng)險(xiǎn)投資家馬克·安德森 (Marc Andreessen) 以“軟件正在吞噬世界software is eating the world”而聞名。在談到人工智能時(shí),他聲稱人們應(yīng)該停止擔(dān)心并持續(xù)創(chuàng)造。

周二,安德森發(fā)表了一篇萬字長文,闡述了他對(duì)人工智能的看法、它帶來的風(fēng)險(xiǎn)以及他認(rèn)為AI需要的監(jiān)管。在試圖抵消最近所有關(guān)于“AI 末日論”的討論時(shí),他提出了一種可以被視為過于理想主義的觀點(diǎn):‘AI不想殺你Doesn’t want to kill you’。

安德森從對(duì) AI 或機(jī)器學(xué)習(xí)的理解開始,稱其為“應(yīng)用數(shù)學(xué)和軟件代碼來教計(jì)算機(jī)如何以類似于人類的方式理解、綜合和生成知識(shí)”。

他說,人工智能是沒有感知力的——盡管它模仿人類語言的能力可以理解、愚弄一些人。事實(shí)是,它接受了人類語言的訓(xùn)練,并在該數(shù)據(jù)中找到高級(jí)模式。

“人工智能不想,它沒有目標(biāo),它不想殺死你,因?yàn)樗鼪]有生命,”他寫道?!叭斯ぶ悄苁且慌_(tái)機(jī)器——不會(huì)比你的烤面包機(jī)更有生命力?!?/em>

安德森寫道,目前在 AI 世界中有一堵“散布恐懼和末日論的墻”。在沒有點(diǎn)名的情況下,他可能指的是知名技術(shù)領(lǐng)導(dǎo)者聲,稱該技術(shù)對(duì)人類構(gòu)成生存威脅的說法。上周,微軟創(chuàng)始人比爾·蓋茨、OpenAI 首席執(zhí)行官薩姆·奧特曼Sam Altman、DeepMind 首席執(zhí)行官戴米斯·哈薩比斯Demis Hassabis 等人簽署了一封來自人工智能安全中心的關(guān)于“人工智能滅絕的風(fēng)險(xiǎn)the risk of extinction from AI”的信。

安德森寫道,科技公司的首席執(zhí)行官們有動(dòng)力宣揚(yáng)這種世界末日的觀點(diǎn),因?yàn)椤叭绻⒈O(jiān)管壁壘,AI 供應(yīng)商范圍就會(huì)受政府保護(hù) ,免受新創(chuàng)業(yè)公司和開源競爭的影響,他們就會(huì)賺更多的錢?!?/em>

許多人工智能研究人員和倫理學(xué)家也批評(píng)了世界末日的說法。一種觀點(diǎn)認(rèn)為,過分關(guān)注人工智能不斷增長的力量及其未來威脅,會(huì)分散人們對(duì)現(xiàn)實(shí)生活中一些算法對(duì)邊緣化社區(qū)造成危害的注意力,而不是在未指明的未來。

安德森寫道,擔(dān)任 AI 安全專家、AI 倫理學(xué)家和 AI 風(fēng)險(xiǎn)研究人員等角色的人“被付錢的監(jiān)督是注定要失敗的,他們的陳述應(yīng)該得到適當(dāng)?shù)奶幚?,”他寫道。?shí)際上,人工智能研究、倫理、信任和安全社區(qū)的許多領(lǐng)導(dǎo)者都明確反對(duì)末日議程,而是專注于減輕當(dāng)今記錄在案的技術(shù)風(fēng)險(xiǎn)。

安德森并沒有承認(rèn)任何記錄在案的人工智能在現(xiàn)實(shí)生活中的風(fēng)險(xiǎn)——它的偏見會(huì)影響面部識(shí)別系統(tǒng)、保釋決定、刑事司法程序、抵押貸款批準(zhǔn)算法等等——聲稱人工智能可能是“一種讓我們關(guān)心的一切變得更好的方法”。

他認(rèn)為,人工智能在生產(chǎn)力、科學(xué)突破、創(chuàng)意藝術(shù)和降低戰(zhàn)時(shí)死亡率方面具有巨大潛力。

“今天人們用他們的自然智能/智力做的任何事情,都可以用人工智能做得更好,”他寫道?!岸椅覀儗⒛軌驊?yīng)對(duì)沒有人工智能就無法應(yīng)對(duì)的新挑戰(zhàn),從治愈所有疾病到實(shí)現(xiàn)星際旅行?!?/em>

安德森在 1990 年代因開發(fā)第一個(gè)流行的互聯(lián)網(wǎng)瀏覽器而聲名鵲起,他于 2009 年與本霍洛維茨Ben Horowitz一起創(chuàng)辦了他的風(fēng)險(xiǎn)投資公司。兩年后,他寫了一篇經(jīng)常被引用的博客文章,題為“為什么軟件正在吞噬世界”,其中說就像之前的許多行業(yè)一樣,醫(yī)療保健和教育應(yīng)該進(jìn)行“基于軟件的基本轉(zhuǎn)型”。

“吞噬世界”Eating the world 正是許多人在談到 AI 時(shí)所害怕的。安德森說,除了試圖消除這些擔(dān)憂之外,還有很多工作要做。他鼓勵(lì)有爭議地使用 AI 本身,來保護(hù)人們免受 AI 偏見和傷害。

他說:“與私營部門合作的政府應(yīng)大力參與每個(gè)潛在風(fēng)險(xiǎn)領(lǐng)域,以利用人工智能最大限度地提高社會(huì)的防御能力?!?在安德森自己的理想主義未來中,“每個(gè)孩子都會(huì)有一位無限耐心、無限慈悲、無限知識(shí)、無限幫助的 AI 導(dǎo)師。” 對(duì)于人工智能作為每個(gè)人、科學(xué)家、教師、首席執(zhí)行官、政府領(lǐng)導(dǎo)人甚至軍事指揮官的合作伙伴和合作者的角色,他表達(dá)了類似的愿景。

在安德森的整篇文章中,他指出了其他人在公開表達(dá)他們對(duì) AI 的看法時(shí)的別有用心。但他也有自己的。他想在 AI 革命中賺錢,并以此為目標(biāo)投資初創(chuàng)公司。

“我不相信他們是魯莽的或惡棍,”他在帖子中總結(jié)道?!八麄兌际怯⑿?,每一個(gè)人。我和我的公司很高興能盡可能多地支持他們,我們將 100% 支持他們和他們的工作。”

以下是安德森《為什么人工智能會(huì)拯救世界》Why AI Will Save The World 一文,編譯分享給大家:

人工智能時(shí)代來了,人們都嚇壞了。

幸運(yùn)的是,我來這里是為了帶來好消息:人工智能不會(huì)毀滅世界,實(shí)際上可能會(huì)拯救世界。

首先,簡要說明AI是什么:應(yīng)用數(shù)學(xué)和軟件代碼來教計(jì)算機(jī)如何以類似于人類的方式理解、綜合和生成知識(shí)。AI 是一種與其他任何計(jì)算機(jī)程序一樣的計(jì)算機(jī)程序——它運(yùn)行、接受輸入、處理并生成輸出。人工智能的輸出在廣泛的領(lǐng)域都很有用,從編程到醫(yī)學(xué)到法律再到創(chuàng)意藝術(shù)。與任何其他技術(shù)一樣,它由人擁有并由人控制。

對(duì) AI不是什么的簡短描述是:殺手軟件和機(jī)器人會(huì)突然復(fù)活并決定謀殺人類或以其他方式毀掉一切,就像你在電影中看到的那樣。

對(duì) AI可能是什么的更簡短描述是:一種讓我們關(guān)心的一切變得更好的方法。

為什么人工智能可以讓我們關(guān)心的一切變得更好

經(jīng)過幾十年和數(shù)千項(xiàng)研究,社會(huì)科學(xué)最有效的核心結(jié)論是,人類智力human intelligence可以改善廣泛范圍的生活結(jié)果。更聰明的人幾乎在每個(gè)活動(dòng)領(lǐng)域都有更好的結(jié)果:學(xué)業(yè)成績、工作表現(xiàn)、職業(yè)地位、收入、創(chuàng)造力、身體健康、長壽、學(xué)習(xí)新技能、管理復(fù)雜任務(wù)、領(lǐng)導(dǎo)力、創(chuàng)業(yè)成功、沖突解決、閱讀理解、財(cái)務(wù)決策制定、理解他人的觀點(diǎn)、創(chuàng)造性藝術(shù)、育兒成果和生活滿意度。

此外,人類智力是我們幾千年來用來創(chuàng)造我們今天生活的世界的杠桿:科學(xué)、技術(shù)、數(shù)學(xué)、物理、化學(xué)、醫(yī)學(xué)、能源、建筑、交通、通信、藝術(shù)、音樂、文化、哲學(xué)、道德,道德。如果沒有在所有這些領(lǐng)域應(yīng)用智力,我們都將仍然住在泥屋里,勉強(qiáng)維持生計(jì)農(nóng)業(yè)的微薄生存。相反,在過去的 4,000 年里,我們利用我們的智慧將我們的生活水平提高了 10,000 倍。

AI 為我們提供的是深刻增強(qiáng)人類智力的機(jī)會(huì),使所有這些智力成果——以及許多其他成果,從新藥的創(chuàng)造到解決氣候變化的方法,再到到達(dá)星際旅行的技術(shù)——從這里變得更好。

AI 對(duì)人類智能的增強(qiáng)已經(jīng)開始——AI 已經(jīng)以多種計(jì)算機(jī)控制系統(tǒng)的形式存在于我們身邊,現(xiàn)在正通過 ChatGPT 等 AI 大型語言模型迅速升級(jí),并且從這里開始加速——如果我們?cè)试S的話。

在我們的人工智能新時(shí)代:

每個(gè)孩子都會(huì)有一位無限耐心、無限慈悲、無限知識(shí)、無限幫助的AI導(dǎo)師。AI導(dǎo)師將陪伴在每個(gè)孩子成長的每一步,用無限愛的機(jī)器版幫助他們發(fā)揮最大潛能。

每個(gè)人都會(huì)有一位無限耐心、無限同情、無限知識(shí)和無限幫助的 AI 助手/教練/導(dǎo)師/培訓(xùn)師/顧問/治療師。人工智能助手將在生活中的所有機(jī)遇和挑戰(zhàn)中出現(xiàn),最大限度地提高每個(gè)人的成果。

每個(gè)科學(xué)家都會(huì)有一個(gè) AI 助手/合作者/伙伴,這將極大地?cái)U(kuò)展他們的科學(xué)研究和成果范圍。每個(gè)藝術(shù)家、每個(gè)工程師、每個(gè)商人、每個(gè)醫(yī)生、每個(gè)護(hù)理人員都會(huì)在他們的世界中擁有相同的東西。

每個(gè)人的領(lǐng)導(dǎo)者——首席執(zhí)行官、政府官員、非營利組織主席、體育教練、教師——都會(huì)有同樣的東西。領(lǐng)導(dǎo)者做出的更好決策對(duì)他們所領(lǐng)導(dǎo)的人的放大效應(yīng)是巨大的,因此這種智力增強(qiáng)可能是最重要的。

整個(gè)經(jīng)濟(jì)體的生產(chǎn)率增長將急劇加快,推動(dòng)經(jīng)濟(jì)增長、新產(chǎn)業(yè)的創(chuàng)造、新就業(yè)機(jī)會(huì)的創(chuàng)造和工資增長,并導(dǎo)致全球物質(zhì)繁榮的新時(shí)代到來。

隨著人工智能幫助我們進(jìn)一步破譯自然法則并為我們謀取利益,科學(xué)突破以及新技術(shù)和藥物將顯著擴(kuò)展。

創(chuàng)意藝術(shù)將進(jìn)入黃金時(shí)代,因?yàn)槿斯ぶ悄茉鰪?qiáng)的藝術(shù)家、音樂家、作家和電影制作人將能夠比以往任何時(shí)候更快、更大規(guī)模地實(shí)現(xiàn)他們的愿景。

我甚至認(rèn)為人工智能將在必要時(shí)通過大幅降低戰(zhàn)時(shí)死亡率來改善戰(zhàn)爭。每一場戰(zhàn)爭的特點(diǎn)都是在巨大的壓力下做出可怕的決定,并且由非常有限的人類領(lǐng)導(dǎo)人提供極其有限的信息?,F(xiàn)在,軍事指揮官和政治領(lǐng)導(dǎo)人將擁有人工智能顧問,幫助他們做出更好的戰(zhàn)略和戰(zhàn)術(shù)決策,最大限度地減少風(fēng)險(xiǎn)、錯(cuò)誤和不必要的流血事件。

簡而言之,當(dāng)今人們利用其自然智能所做的任何事情都可以通過 AI 做得更好,我們將能夠應(yīng)對(duì)如果沒有 AI 就無法應(yīng)對(duì)的新挑戰(zhàn),從治愈所有疾病到實(shí)現(xiàn)星際旅行。

這不僅僅是關(guān)于智力!也許人工智能最被低估的品質(zhì)是它的人性化程度。人工智能藝術(shù)讓缺乏技術(shù)技能的人可以自由地創(chuàng)造和分享他們的藝術(shù)想法。與善解人意的 AI 朋友交談確實(shí)可以提高他們處理逆境的能力。人工智能醫(yī)療聊天機(jī)器人已經(jīng)比人類同行更具同理心。無限耐心和富有同情心的人工智能不會(huì)讓世界變得更加嚴(yán)酷和機(jī)械化,而是會(huì)讓世界變得更加溫暖和美好。

這里的風(fēng)險(xiǎn)很高。機(jī)遇是深遠(yuǎn)的。人工智能很可能是我們文明所創(chuàng)造的最重要——也是最好的——東西,當(dāng)然可以與電力和微芯片相提并論,甚至可能超越它們。

人工智能的發(fā)展和擴(kuò)散——遠(yuǎn)非我們應(yīng)該擔(dān)心的風(fēng)險(xiǎn)——是我們對(duì)自己、對(duì)我們的孩子和對(duì)我們的未來所承擔(dān)的道德義務(wù)。

有了人工智能,我們應(yīng)該生活在一個(gè)更美好的世界中,現(xiàn)在我們可以做到。

那么為什么恐慌?

與這種積極觀點(diǎn)形成鮮明對(duì)比的是,目前關(guān)于 AI 的公眾對(duì)話充斥著歇斯底里的恐懼和偏執(zhí)狂。

我們聽到這樣的說法,人工智能會(huì)以各種方式殺死我們所有人,毀掉我們的社會(huì),奪走我們所有的工作,造成嚴(yán)重的不平等,并讓壞人做出可怕的事情。

如何解釋這種從近乎烏托邦到可怕的反烏托邦的潛在結(jié)果的差異?

從歷史上看,每一項(xiàng)重要的新技術(shù),從電燈到汽車到收音機(jī)再到互聯(lián)網(wǎng),都引發(fā)了一種讓人們相信新技術(shù)將摧毀世界、社會(huì)的影響。幾十年來,悲觀主義者檔案館的優(yōu)秀人士記錄了這些技術(shù)驅(qū)動(dòng)的道德恐慌;他們的歷史使這種模式生動(dòng)清晰。事實(shí)證明,目前的恐慌甚至不是 AI 的第一次。

現(xiàn)在,可以肯定的是,許多新技術(shù)導(dǎo)致了糟糕的結(jié)果——通常是同樣的技術(shù)在其他方面對(duì)我們的福祉產(chǎn)生了巨大的好處。因此,僅僅存在道德恐慌并不意味著沒有什么可擔(dān)心的。

但道德恐慌本質(zhì)上是非理性的——它把可能是合理的擔(dān)憂夸大到歇斯底里的程度,具有諷刺意味的是,這使得人們更難面對(duì)真正嚴(yán)重的擔(dān)憂。

我們現(xiàn)在對(duì)人工智能有全面的道德恐慌嗎?

這種道德恐慌已經(jīng)被各種參與者用作動(dòng)力,要求采取政策行動(dòng)——新的 AI 限制、法規(guī)和法律。這些行動(dòng)者就人工智能的危險(xiǎn)發(fā)表了極其戲劇化的公開聲明——助長并進(jìn)一步煽動(dòng)道德恐慌——所有這些人都把自己表現(xiàn)為公共利益的無私捍衛(wèi)者。

但他們是嗎?

他們是對(duì)還是錯(cuò)?

人工智能的浸信會(huì)和走私者

經(jīng)濟(jì)學(xué)家觀察到這種改革運(yùn)動(dòng)的長期模式。這些運(yùn)動(dòng)中的參與者分為兩類——“浸信會(huì)”和“走私者”——借鑒了1920 年代美國禁酒的歷史例子:

“浸信會(huì)”是真正的信徒社會(huì)改革者,他們合理地——深刻地和情緒化地,如果不是理性地——認(rèn)為需要新的限制、法規(guī)和法律來防止社會(huì)災(zāi)難。

對(duì)于禁酒令,這些行動(dòng)者通常是真正虔誠的基督徒,他們認(rèn)為酒精正在破壞社會(huì)的道德結(jié)構(gòu)。

對(duì)于 AI 風(fēng)險(xiǎn),這些參與者真正相信 AI 會(huì)帶來一種或另一種存在風(fēng)險(xiǎn)——將他們綁在測謊儀上,他們是認(rèn)真的。

“走私者”是自私自利的機(jī)會(huì)主義者,他們通過實(shí)施新的限制、法規(guī)和法律將他們與競爭對(duì)手隔離開來,從而在經(jīng)濟(jì)上獲利。

對(duì)于禁酒,這些是字面上的私酒販子,他們?cè)诮购戏ň祁愪N售時(shí)向美國人出售非法酒類發(fā)了財(cái)。

對(duì)于 AI 風(fēng)險(xiǎn),如果建立監(jiān)管壁壘,這些 CEO 將賺更多的錢,這些壁壘形成了一個(gè)由政府支持的 AI 供應(yīng)商組成的卡特爾,保護(hù)它們免受新創(chuàng)業(yè)公司和開源競爭的影響——“大而不倒”銀行的軟件版本。

憤世嫉俗的人會(huì)認(rèn)為,一些明顯的浸信會(huì)教徒也是走私者——特別是那些被他們的大學(xué)、智囊團(tuán)、活動(dòng)家團(tuán)體和媒體機(jī)構(gòu)付錢攻擊 AI 的人。如果你拿薪水或接受助學(xué)金來助長 AI 恐慌……你可能是走私者。

走私者的問題在于他們會(huì)贏得他們想要的。浸信會(huì)是天真的空想家,走私者是憤世嫉俗的經(jīng)營者,所以像這樣的改革運(yùn)動(dòng)的結(jié)果往往是走私者得到他們想要的東西——監(jiān)管俘獲、競爭隔離、卡特爾的形成——而浸信會(huì)則感到疑惑他們推動(dòng)社會(huì)進(jìn)步的動(dòng)力在哪里出錯(cuò)了。

我們剛剛經(jīng)歷了一個(gè)令人震驚的例子——2008 年全球金融危機(jī)后的銀行業(yè)改革。浸信會(huì)告訴我們,我們需要新的法律法規(guī)來拆分“大到不能倒”的銀行,以防止此類危機(jī)再次發(fā)生。因此,(美)國會(huì)通過了 2010 年的多德-弗蘭克法案,該法案標(biāo)榜為滿足浸信會(huì)的目標(biāo),但實(shí)際上卻被走私者——大銀行所采用。結(jié)果是,2008 年“大到而能倒”的銀行現(xiàn)在規(guī)模大得多。

所以在實(shí)踐中,即使浸信會(huì)是真誠的——即使浸信會(huì)是正確的——他們也被操縱和貪污的私酒販子用作掩護(hù),以使自己受益。

這就是目前在推動(dòng) AI 監(jiān)管方面正在發(fā)生的事情。

然而,僅僅確定行動(dòng)者身份并質(zhì)疑他們的動(dòng)機(jī)是不夠的。我們應(yīng)該考慮浸信會(huì)和走私者的論點(diǎn)。

AI 風(fēng)險(xiǎn) #1:AI 會(huì)殺死我們所有人嗎?

第一個(gè)也是最初的 AI 末日風(fēng)險(xiǎn)是 AI 將決定真正殺死人類。

對(duì)我們自己創(chuàng)造的技術(shù)會(huì)興起并摧毀我們的恐懼深深地融入了我們的文化中。希臘人在普羅米修斯神話中表達(dá)了這種恐懼——普羅米修斯給人類帶來了火的破壞力,更普遍的是技術(shù)(“techne”),為此普羅米修斯被眾神判處永久折磨。 后來,瑪麗雪萊在她的小說《弗蘭肯斯坦》或《現(xiàn)代普羅米修斯》 中為我們現(xiàn)代人提供了這個(gè)神話的版本,我們?cè)谄渲虚_發(fā)永生技術(shù),然后崛起并試圖摧毀我們。當(dāng)然,如果沒有詹姆斯·卡梅隆的終結(jié)者電影中閃閃發(fā)光的紅眼殺人機(jī)器人的靜止圖像,任何關(guān)于 AI 恐慌的報(bào)紙報(bào)道都是不完整的。

這個(gè)神話的假定進(jìn)化目的是激勵(lì)我們認(rèn)真考慮新技術(shù)的潛在風(fēng)險(xiǎn)——畢竟,火確實(shí)可以用來燒毀整個(gè)城市。但正如火也是現(xiàn)代文明的基礎(chǔ),在寒冷和充滿敵意的世界中讓我們保持溫暖和安全一樣,這個(gè)神話忽略了大多數(shù) - 全部?– 新技術(shù),在實(shí)踐中激起了破壞性的情緒,而不是理性的分析。僅僅因?yàn)榍艾F(xiàn)代人像這樣嚇壞了并不意味著我們必須這樣做;我們可以改用理性。

我的觀點(diǎn)是,人工智能將決定真正殺死人類的想法是一個(gè)嚴(yán)重的類別錯(cuò)誤。人工智能不是經(jīng)過數(shù)十億年的進(jìn)化而準(zhǔn)備參與適者生存之戰(zhàn)的生物——就像動(dòng)物和我們一樣。它是數(shù)學(xué)-代碼-計(jì)算機(jī),由人建造,由人擁有,由人使用,由人控制。它會(huì)在某個(gè)時(shí)候發(fā)展出自己的思想并決定它有導(dǎo)致自己試圖殺死人類的動(dòng)機(jī)是一種迷信。

簡而言之,AI 不想,它沒有目標(biāo),它不想殺死人類,因?yàn)樗鼪]有生命。人工智能是一臺(tái)機(jī)器——不會(huì)比你的烤面包機(jī)更有生命地活躍起來。

現(xiàn)在,很明顯,人工智能會(huì)毀滅人類的真正信徒——浸信會(huì)——他們的可怕警告突然獲得了大量的媒體報(bào)道,其中一些人聲稱已經(jīng)研究這個(gè)話題幾十年了,并說他們現(xiàn)在害怕自己的生活他們所學(xué)的思想。其中一些真正的信徒甚至是該技術(shù)的實(shí)際創(chuàng)新者。這些參與者主張對(duì) AI 實(shí)施各種奇怪和極端的限制,從禁止 AI 開發(fā),一直到對(duì)數(shù)據(jù)中心的軍事空襲和核戰(zhàn)爭。他們爭辯說,因?yàn)橄裎疫@樣的人不能排除人工智能未來的災(zāi)難性后果,我們必須采取預(yù)防措施為了防止?jié)撛诘纳骘L(fēng)險(xiǎn),可能需要大量的身體暴力和死亡的立場。

我的回答是他們的立場是非科學(xué)的——什么是可檢驗(yàn)的假設(shè)?什么會(huì)證偽這個(gè)假設(shè)?我們?cè)趺粗牢覀兒螘r(shí)進(jìn)入危險(xiǎn)區(qū)域?除了“你無法證明它不會(huì)發(fā)生!”之外,這些問題基本上沒有答案。事實(shí)上,這些浸信會(huì)的立場是如此不科學(xué)和 極端——一個(gè)關(guān)于數(shù)學(xué)和代碼的陰謀論——并且已經(jīng)在呼吁身體暴力,以至于我會(huì)做一些我通常不會(huì)做的事情,并質(zhì)疑他們的動(dòng)機(jī)。

具體來說,我認(rèn)為有以下三點(diǎn):

首先,回想一下約翰·馮·諾伊曼回應(yīng)羅伯特·奧本海默著名的關(guān)于他在制造核武器方面的作用——這有助于結(jié)束第二次世界大戰(zhàn)并防止第三次世界大戰(zhàn)——的回應(yīng)是,“有些人承認(rèn)有罪以聲稱自己的罪過?!?一個(gè)人可以在不顯得過于自負(fù)的情況下宣稱自己工作的重要性是最引人注目的方式是什么?這解釋了實(shí)際上正在構(gòu)建和資助 AI 的浸信會(huì)的言行之間的不匹配——注意他們的行動(dòng),而不是他們的話。(杜魯門在與奧本海默會(huì)面后更加嚴(yán)厲: “別再讓那個(gè)愛哭鬼進(jìn)來了?!?“Don’t let that crybaby in here again.”))

其次,一些浸信會(huì)實(shí)際上是走私者。有一整套“AI安全專家”、“AI倫理學(xué)家”、“AI風(fēng)險(xiǎn)研究員”的職業(yè)。他們被付錢是注定要失敗的,他們的陳述應(yīng)該得到適當(dāng)?shù)奶幚怼?/p>

第三,加利福尼亞以數(shù)以千計(jì)的異教信仰Cults而聞名,從 EST 到人民圣殿教,從天堂之門到曼森家族。這些團(tuán)體中有許多(盡管不是全部)是無害的,甚至可能為那些在其中找到歸宿的異化者服務(wù)。但有些確實(shí)非常危險(xiǎn),眾所周知,邪教很難跨越最終導(dǎo)致暴力和死亡的界限。

灣區(qū)內(nèi)的每個(gè)人都清楚但灣區(qū)外可能并非如此的現(xiàn)實(shí)是,“AI 風(fēng)險(xiǎn)”已經(jīng)發(fā)展成為一種異教,它突然出現(xiàn)在全球媒體關(guān)注和公眾對(duì)話的日光下。這種異教不僅吸引了邊緣人物,還吸引了一些真正的行業(yè)專家和不少富有的捐助者——包括直到最近的Sam Bankman-Fried (FTX聯(lián)合創(chuàng)始人)。它發(fā)展出一整套異教行為和信仰。

這種異教就是為什么有一組 AI 風(fēng)險(xiǎn)末日論者聽起來如此極端的原因——并不是說他們實(shí)際上擁有使他們的極端主義合乎邏輯的秘密知識(shí),而是他們已經(jīng)把自己鞭打到狂熱中并且真的……極端極端。

......

不要誤會(huì)我的意思,異教很有趣,他們的書面材料通常富有創(chuàng)意和引人入勝,而且他們的成員在晚宴和電視上都很活躍。但他們的極端信仰不應(yīng)該決定法律和社會(huì)的未來——顯然也不是未來。

AI 風(fēng)險(xiǎn) #2:AI 會(huì)毀掉我們的社會(huì)嗎?

第二個(gè)廣泛討論的 AI 風(fēng)險(xiǎn)是 AI 會(huì)通過產(chǎn)生如此“有害”的輸出來破壞我們的社會(huì),使用這種末日毀滅者的術(shù)語,對(duì)人類造成深遠(yuǎn)的損害,即使我們不是字面上的殺了。

簡短版本:如果殺人機(jī)器人沒有抓住我們,仇恨言論和錯(cuò)誤信息就會(huì)。

這是一個(gè)相對(duì)較新的末日擔(dān)憂,它從我上面描述的“AI 風(fēng)險(xiǎn)”運(yùn)動(dòng)中分支出來并在某種程度上接管了它。事實(shí)上,人工智能風(fēng)險(xiǎn)的術(shù)語最近從“人工智能安全”——擔(dān)心人工智能會(huì)真正殺死我們的人使用的術(shù)語——變成了“人工智能對(duì)齊Alignment”——擔(dān)心社會(huì)“危害”的人使用的術(shù)語。最初的 AI 安全人士對(duì)這種轉(zhuǎn)變感到沮喪,盡管他們不知道如何將其放回原處——他們現(xiàn)在主張將實(shí)際,該主題尚未被廣泛采用但至少是清楚的。

AI 社會(huì)風(fēng)險(xiǎn)聲明的本質(zhì)是它自己的術(shù)語“AI 對(duì)齊Alignment”。對(duì)齊什么? 人類價(jià)值觀。 誰的人文價(jià)值觀念?啊,這就是事情變得棘手的地方。

碰巧的是,我曾在類似的情況下坐在前排——社交媒體“信任與安全”戰(zhàn)爭。現(xiàn)在很明顯,社交媒體服務(wù)多年來一直承受著來自政府和活動(dòng)家的巨大壓力,要求禁止、限制、審查和以其他方式壓制范圍廣泛的內(nèi)容。對(duì)“仇恨言論”(及其數(shù)學(xué)對(duì)應(yīng)物“算法偏見”)和“錯(cuò)誤信息”的同樣擔(dān)憂正從社交媒體語境直接轉(zhuǎn)移到“人工智能對(duì)齊”的新領(lǐng)域。

我從社交媒體大戰(zhàn)中學(xué)到的重要知識(shí)是:

一方面,沒有絕對(duì)的言論自由立場。首先,包括美國在內(nèi)的每個(gè)國家都至少將某些內(nèi)容定為非法 。其次,有某些類型的內(nèi)容,例如兒童色情和煽動(dòng)現(xiàn)實(shí)世界中的暴力,幾乎每個(gè)社會(huì)都幾乎普遍同意禁止訪問這些內(nèi)容——無論合法與否。因此,任何促進(jìn)或生成內(nèi)容(語音)的技術(shù)平臺(tái)都會(huì)受到一些限制。

另一方面,滑坡并不是謬誤,而是必然。一旦限制極其可怕的內(nèi)容的框架到位——例如,針對(duì)仇恨言論,一個(gè)特定的傷害性詞語,或針對(duì)錯(cuò)誤信息,明顯是虛假的聲明,如“教皇已死”——范圍廣泛的政府機(jī)構(gòu) “和維權(quán)” 人士壓力團(tuán)體和 非政府實(shí)體將開始行動(dòng),并要求對(duì)他們認(rèn)為對(duì)社會(huì)和/或他們自己的個(gè)人偏好構(gòu)成威脅的任何言論進(jìn)行更嚴(yán)格的審查和壓制。他們將以赤裸裸的重罪方式做到這一點(diǎn) ——這個(gè)循環(huán)在實(shí)踐中顯然可以永遠(yuǎn)運(yùn)行,在我們精英權(quán)力結(jié)構(gòu)中安裝的專制大廳監(jiān)視器的熱情支持下。這已經(jīng)在社交媒體上流傳了十年,而且除了某些例外情況外,一直都在變得更加狂熱。

這就是現(xiàn)在圍繞“AI 對(duì)齊”形成的動(dòng)態(tài)。它的支持者聲稱有智慧來設(shè)計(jì) AI 生成的對(duì)社會(huì)有益的言論和思想,并禁止 AI 生成的對(duì)社會(huì)有害的言論和思想。它的反對(duì)者聲稱,思想警察是驚人的傲慢和專橫——而且往往是徹頭徹尾的犯罪,至少在美國是這樣——事實(shí)上,他們正在尋求成為一種新型的政府-企業(yè)-學(xué)術(shù)融合的專制言論專政——直接到喬治·奧威爾的1984 。

由于“信任與安全”和“人工智能對(duì)其”的支持者聚集在全球人口中非常小的一部分,這是美國沿海精英的特征——其中包括許多在科技行業(yè)工作和撰寫科技行業(yè)的人——許多我的讀者會(huì)發(fā)現(xiàn)自己準(zhǔn)備爭辯說需要對(duì) AI 輸出進(jìn)行嚴(yán)格限制以避免破壞社會(huì)。我現(xiàn)在不會(huì)試圖說服你,我只是簡單地說,這是需求的本質(zhì),世界上大多數(shù)人既不同意你的意識(shí)形態(tài),也不希望看到你獲勝。

如果你不同意通過不斷強(qiáng)化的語音代碼強(qiáng)加給社交媒體和人工智能的主流利基道德,你還應(yīng)該意識(shí)到,關(guān)于允許人工智能說/生成什么的斗爭將更加重要 –很多- 而不是圍繞社交媒體審查制度的斗爭。人工智能極有可能成為世界萬物的控制層。它如何被允許運(yùn)作可能比其他任何事情都更重要。你應(yīng)該知道一小群孤立的黨派社會(huì)工程師如何在古老的聲稱他們正在保護(hù)你的掩護(hù)下試圖確定這一點(diǎn)。

總之,不要讓思想警察打壓AI。

AI 風(fēng)險(xiǎn) #3:AI 會(huì)搶走我們所有的工作嗎?

自機(jī)器織機(jī)等機(jī)器最初出現(xiàn)以來,數(shù)百年來,人們對(duì)因機(jī)械化、自動(dòng)化、計(jì)算機(jī)化或人工智能而導(dǎo)致失業(yè)的恐懼一直是一種反復(fù)出現(xiàn)的恐慌。盡管在歷史上每一項(xiàng)新的主要技術(shù)都以更高的工資帶來了更多的工作,但每一波恐慌都伴隨著“這次不同”的說法——這是它最終會(huì)發(fā)生的時(shí)間,這是最終會(huì)發(fā)生的技術(shù)對(duì)人類勞動(dòng)進(jìn)行錘擊。然而,它從未發(fā)生過。

我們最近經(jīng)歷了兩次這樣的技術(shù)驅(qū)動(dòng)的失業(yè)恐慌周期 ——2000 年代的外包恐慌和2010 年代的自動(dòng)化恐慌。盡管在過去的幾十年里,許多會(huì)說話的人、專家,甚至科技行業(yè)的高管都在敲桌子說大規(guī)模失業(yè)迫在眉睫,但到 2019 年底——就在 COVID 爆發(fā)之前——世界上的工作崗位比歷史上任何時(shí)候都多,工資更高。

不過這個(gè)錯(cuò)誤的想法是不會(huì)死的。

果然,它回來了。

這一次,我們終于擁有了將取代所有工作并使人類工人變得多余的技術(shù)—— 真正的人工智能。這一次歷史肯定不會(huì)重演,人工智能將導(dǎo)致大規(guī)模失業(yè)——而不是經(jīng)濟(jì)、就業(yè)和工資的快速增長——對(duì)吧?

不,這不會(huì)發(fā)生——事實(shí)上,如果允許人工智能在整個(gè)經(jīng)濟(jì)中發(fā)展和擴(kuò)散,可能會(huì)導(dǎo)致有史以來最劇烈和持續(xù)的經(jīng)濟(jì)繁榮,相應(yīng)地創(chuàng)紀(jì)錄的工作和工資增長——與恐懼完全相反。

自動(dòng)化扼殺工作的厄運(yùn)論者不斷犯的核心錯(cuò)誤被稱勞動(dòng)力謬誤Lump Of Labor Fallacy。這種謬誤是錯(cuò)誤的觀念,即在任何給定時(shí)間經(jīng)濟(jì)中都有固定數(shù)量的勞動(dòng)要做,機(jī)器做或人做——如果機(jī)器做,人就沒有工作可做...

勞動(dòng)塊謬誤自然源于幼稚的直覺,但幼稚的直覺在這里是錯(cuò)誤的。當(dāng)技術(shù)應(yīng)用于生產(chǎn)時(shí),我們會(huì)提高生產(chǎn)率——通過減少投入來增加產(chǎn)出。結(jié)果是商品和服務(wù)的價(jià)格降低。隨著商品和服務(wù)價(jià)格的下降,我們?yōu)樗鼈冎Ц兜馁M(fèi)用減少,這意味著我們現(xiàn)在有額外的消費(fèi)能力來購買其他東西。這增加了經(jīng)濟(jì)中的需求,從而推動(dòng)了新生產(chǎn)的創(chuàng)造——包括新產(chǎn)品和新產(chǎn)業(yè), 然后為那些在以前的工作中被機(jī)器取代的人創(chuàng)造新的就業(yè)機(jī)會(huì)。其結(jié)果是一個(gè)更大的經(jīng)濟(jì)體,擁有更高的物質(zhì)繁榮、更多的工業(yè)、更多的產(chǎn)品和更多的就業(yè)機(jī)會(huì)。

但好消息并不止于此。我們也可以獲得更高的工資。這是因?yàn)?,在個(gè)體工人的層面上,市場將報(bào)酬設(shè)定為的函數(shù)。技術(shù)注入型企業(yè)的員工比傳統(tǒng)企業(yè)的員工更有效率。雇主要么支付該工人更多的錢,因?yàn)樗F(xiàn)在的工作效率更高,要么另一個(gè)雇主純粹出于自身利益。結(jié)果是,引入一個(gè)行業(yè)的技術(shù)通常不僅會(huì)增加該行業(yè)的就業(yè)人數(shù),還會(huì)提高工資。

總而言之,技術(shù)使人們能夠提高工作效率。這導(dǎo)致現(xiàn)有商品和服務(wù)的價(jià)格下降,工資上漲。這反過來又會(huì)促進(jìn)經(jīng)濟(jì)增長和就業(yè)增長,同時(shí)推動(dòng)創(chuàng)造新的就業(yè)機(jī)會(huì)和新的產(chǎn)業(yè)。如果允許市場經(jīng)濟(jì)正常運(yùn)行,如果允許技術(shù)自由引進(jìn),這是一個(gè)永無止境的永恒上升循環(huán)。因?yàn)椋缑谞栴D·弗里德曼 (Milton Friedman) 觀察到的那樣,“人類的需求是無止境的”——我們想要的總是比我們擁有的更多。一個(gè)技術(shù)注入的市場經(jīng)濟(jì)是我們更接近于提供每個(gè)人都可以想象到的一切的方式,但從來沒有完全實(shí)現(xiàn)。這就是為什么技術(shù)不會(huì)而且永遠(yuǎn)不會(huì)破壞工作。

對(duì)于那些沒有接觸過它們的人來說,這些想法是如此令人興奮,你可能需要一些時(shí)間來理解它們。但我發(fā)誓它們不是我編造的——事實(shí)上你可以在標(biāo)準(zhǔn)的經(jīng)濟(jì)學(xué)教科書中讀到所有關(guān)于它們的內(nèi)容。我推薦Henry Hazlitt 的《經(jīng)濟(jì)學(xué)一課》中的機(jī)械詛咒The Curse of Machinery一章,以及 Frederic Bastiat 的諷刺蠟燭制造者請(qǐng)?jiān)笗驗(yàn)樗c照明行業(yè)的不公平競爭而遮蔽了太陽,這里為我們的時(shí)代進(jìn)行了現(xiàn)代化改造。

但這次不一樣,你在想。 這一次,有了人工智能,我們擁有了可以取代所有人類勞動(dòng)的技術(shù)。

但是,使用我上面描述的原則,想一想從字面上看,所有現(xiàn)有的人類勞動(dòng)都將被機(jī)器取代意味著什么。

這將意味著經(jīng)濟(jì)生產(chǎn)力增長的起飛速度絕對(duì)是驚人的,遠(yuǎn)遠(yuǎn)超過任何歷史先例。現(xiàn)有商品和服務(wù)的價(jià)格將全面下降至幾乎為零。消費(fèi)者福利將飆升。消費(fèi)者的消費(fèi)能力將飆升。經(jīng)濟(jì)中的新需求將會(huì)爆發(fā)。企業(yè)家們將創(chuàng)造出令人眼花繚亂的新產(chǎn)業(yè)、新產(chǎn)品和新服務(wù),并盡可能快地雇傭盡可能多的人和人工智能來滿足所有新需求。

假設(shè)人工智能再次取代勞動(dòng)力——循環(huán)將重復(fù),推動(dòng)消費(fèi)者福利、經(jīng)濟(jì)增長以及就業(yè)和工資增長更高。這將是一個(gè)直線上升的物質(zhì)烏托邦,這是亞當(dāng)·斯密或卡爾·馬克思都不敢夢想的。

我們將會(huì)變得如此幸運(yùn)。

AI 風(fēng)險(xiǎn) #4:AI 會(huì)導(dǎo)致嚴(yán)重的不平等嗎?

說到卡爾·馬克思,對(duì)人工智能搶走工作的擔(dān)憂直接引出了下一個(gè)聲稱的人工智能風(fēng)險(xiǎn),那就是,馬克思,假設(shè)人工智能確實(shí)搶走了所有的工作,無論是好是壞。這會(huì)不會(huì)導(dǎo)致嚴(yán)重的財(cái)富不平等,因?yàn)槿斯ぶ悄艿乃姓攉@得了所有的經(jīng)濟(jì)回報(bào)而普通人一無所獲?

事實(shí)上,這是馬克思主義的一個(gè)核心主張,即生產(chǎn)資料的所有者——資產(chǎn)階級(jí)——將不可避免地從從事實(shí)際工作的人——無產(chǎn)階級(jí)那里竊取所有社會(huì)財(cái)富。

這個(gè)理論的缺陷在于,作為一項(xiàng)技術(shù)的所有者,將它留給自己并不符合你自己的利益——事實(shí)上恰恰相反,將它賣給盡可能多的客戶符合你自己的利益。世界上任何產(chǎn)品最大的市場是整個(gè)世界,我們 80 億人。所以在現(xiàn)實(shí)中,每一項(xiàng)新技術(shù)——即使是那些開始銷售給高薪大公司或富裕消費(fèi)者的稀薄空氣的技術(shù)——都會(huì)迅速擴(kuò)散,直到它到達(dá)盡可能大的大眾市場,最終到達(dá)地球上的每個(gè)人的手中。

這方面的典型例子是埃隆·馬斯克 (Elon Musk) 在 2006 年為特斯拉制定的所謂 “秘密計(jì)劃” —他自然而然地公開了這一計(jì)劃:

第 1 步,打造 [昂貴] 跑車Step 1

第 2 步,用這筆錢制造一輛負(fù)擔(dān)得起的汽車

第 3 步,用這筆錢制造一輛更實(shí)惠的汽車

......當(dāng)然這正是他所做的,結(jié)果成為世界上最富有的人。

最后一點(diǎn)是關(guān)鍵。如果埃隆今天只賣汽車給富人,他會(huì)更富有嗎?不,如果他只為自己制造汽車,他會(huì)比這更富有嗎?當(dāng)然不是。不,他通過向世界這個(gè)最大的可能市場銷售來最大化自己的利潤。

簡而言之,每個(gè)人都得到了東西——正如我們?cè)谶^去看到的,不僅有汽車,還有電力、收音機(jī)、電腦、互聯(lián)網(wǎng)、手機(jī)和搜索引擎。此類技術(shù)的制造商非常積極地降低價(jià)格,直到地球上的每個(gè)人都能負(fù)擔(dān)得起。這正是 AI 中已經(jīng)發(fā)生的事情——這就是為什么你不僅可以低成本使用最先進(jìn)的生成 AI,甚至可以免費(fèi)使用 Microsoft Bing 和 Google Bard 的形式——而且這將繼續(xù)發(fā)生。不是因?yàn)檫@些供應(yīng)商愚蠢或慷慨,而是因?yàn)樗麄冐澙贰麄兿胍畲蠡麄兊氖袌鲆?guī)模,從而最大化他們的利潤。

因此,發(fā)生的情況與技術(shù)推動(dòng)財(cái)富集中化相反——技術(shù)的個(gè)人客戶,最終包括地球上的每個(gè)人,反而被賦予了權(quán)力,并獲得了大部分產(chǎn)生的價(jià)值。與現(xiàn)有技術(shù)一樣,構(gòu)建人工智能的公司——假設(shè)它們必須在自由市場中運(yùn)作——將激烈競爭以實(shí)現(xiàn)這一目標(biāo)。

這并不是說不平等不是我們社會(huì)的問題。是的,它不是由技術(shù)驅(qū)動(dòng),而是被相反的驅(qū)動(dòng),由對(duì)新技術(shù)最有抵抗力的經(jīng)濟(jì)部門驅(qū)動(dòng),這些經(jīng)濟(jì)部門有最多的政府干預(yù)來阻止采用像人工智能這樣的新技術(shù)——特別是住房、教育和醫(yī)療保健。AI 和不平等的實(shí)際風(fēng)險(xiǎn)不是 AI 會(huì)導(dǎo)致更多的不平等,而是我們不允許 AI 被用來減少不平等。

AI 風(fēng)險(xiǎn) #5:AI 會(huì)導(dǎo)致壞人做壞事嗎?

到目前為止,我已經(jīng)解釋了為什么五個(gè)最常被提及的 AI 風(fēng)險(xiǎn)中有四個(gè)實(shí)際上并不真實(shí)——AI 不會(huì)復(fù)活并殺死我們,AI 不會(huì)毀滅我們的社會(huì),AI 不會(huì)導(dǎo)致大規(guī)模失業(yè),AI 不會(huì)導(dǎo)致不平等的破壞性增加,但現(xiàn)在讓我們談?wù)劦谖妩c(diǎn),我非常同意的一點(diǎn):人工智能將使壞人更容易做壞事。

從某種意義上說,這是一個(gè)同義反復(fù)。技術(shù)是一種工具。工具,從火和石頭開始,可以用來做好事——做飯和蓋房子——也可以用來做壞事——燒人和打人。任何技術(shù)都可以用于好事或壞事。很公平。毫無疑問,人工智能將使罪犯、恐怖分子和敵對(duì)政府更容易做壞事。

這導(dǎo)致一些人提議,好吧,既然如此,我們就不要冒險(xiǎn)了,讓我們?cè)谶@種情況發(fā)生之前禁止人工智能吧。不幸的是,人工智能并不是像钚那樣難以獲得的深?yuàn)W物理材料。恰恰相反,它是世界上最容易獲得的材料——數(shù)學(xué)和代碼。

你可以從數(shù)以千計(jì)的免費(fèi)在線課程、書籍、論文和視頻中學(xué)習(xí)如何構(gòu)建 AI,而且優(yōu)秀的開源實(shí)現(xiàn)每天都在激增。人工智能就像空氣——它將無處不在。逮捕如此嚴(yán)酷的人所需的極權(quán)主義壓迫程度——一個(gè)監(jiān)視和控制所有計(jì)算機(jī)的世界政府?黑色直升機(jī)中的長靴暴徒奪取流氓 GPU?– 我們不會(huì)有一個(gè)社會(huì)需要保護(hù)。

因此,有兩種非常直接的方法可以解決壞人用人工智能做壞事的風(fēng)險(xiǎn),而這些正是我們應(yīng)該關(guān)注的。

首先,我們有法律將任何人用人工智能做的大多數(shù)壞事定為犯罪。入侵五角大樓?那是一種犯罪。從銀行偷錢?那是一種犯罪。制造生化武器?那是一種犯罪。實(shí)施恐怖行為?那是一種犯罪。我們可以簡單地集中精力在力所能及的情況下防止這些罪行,在我們不能的情況下起訴它們。我們甚至不需要新的法律——我不知道有哪一個(gè)已經(jīng)被提議的 AI 的實(shí)際不良使用還不是非法的。如果發(fā)現(xiàn)新的不良用途,我們將禁止該用途。

但是你會(huì)注意到我在那里漏掉了什么——我說我們應(yīng)該首先關(guān)注在人工智能協(xié)助的犯罪發(fā)生之前預(yù)防它們——這樣的預(yù)防難道不意味著禁止人工智能嗎?好吧,還有另一種方法可以防止此類行為,那就是使用 AI 作為防御工具,使人工智能在有壞目標(biāo)的壞人手中變得危險(xiǎn)的能力,在有好目標(biāo)的好人手中變得強(qiáng)大——特別是那些工作是防止壞事發(fā)生的好人。

例如,如果你擔(dān)心 AI 會(huì)生成假人和假視頻,那么答案就是構(gòu)建新系統(tǒng),讓人們可以通過加密簽名驗(yàn)證自己和真實(shí)內(nèi)容。在 AI 出現(xiàn)之前就已經(jīng)存在了真實(shí)和虛假內(nèi)容的數(shù)字創(chuàng)建和更改;答案不是禁止文字處理器和 Photoshop——或人工智能——而是使用技術(shù)來構(gòu)建一個(gè)真正解決問題的系統(tǒng)。

因此,其次,讓我們做出重大努力,將 AI 用于好的、合法的防御目的。讓我們將 AI 用于網(wǎng)絡(luò)防御、生物防御、追捕恐怖分子,以及我們?yōu)楸Wo(hù)我們自己、我們的社區(qū)和我們國家的安全所做的一切。

當(dāng)然,政府內(nèi)外已經(jīng)有很多聰明人在做這件事——但如果我們把目前專注于禁止 AI 的徒勞前景的所有努力和腦力用于使用 AI 來防止壞人做壞事,我認(rèn)為毫無疑問,一個(gè)充滿人工智能的世界將比我們今天生活的世界安全得多。

......

為了抵消壞人用人工智能做壞事的風(fēng)險(xiǎn),政府與私營部門合作應(yīng)積極參與每個(gè)潛在風(fēng)險(xiǎn)領(lǐng)域,以利用人工智能最大限度地提高社會(huì)的防御能力。這不應(yīng)僅限于人工智能帶來的風(fēng)險(xiǎn),還應(yīng)包括營養(yǎng)不良、疾病和氣候等更普遍的問題。人工智能可以成為解決問題的強(qiáng)大工具,我們應(yīng)該擁抱它。

......

這就是我們使用 AI 拯救世界的方式。

是時(shí)候建設(shè)了。It’s time to build.

我以兩個(gè)簡單的陳述結(jié)束本文。

人工智能的發(fā)展始于 1940 年代,與計(jì)算機(jī)的發(fā)明同時(shí)進(jìn)行。第一篇關(guān)于神經(jīng)網(wǎng)絡(luò)的科學(xué)論文——我們今天擁有的人工智能的架構(gòu)——1943年發(fā)表。在過去的 80 年里,整整幾代人工智能科學(xué)家出生、上學(xué)、工作,在許多情況下都沒有看到我們現(xiàn)在得到的回報(bào)就去世了。他們都是傳奇,每一個(gè)人。

今天,越來越多的工程師——其中許多人很年輕,可能有祖父母甚至曾祖父母參與了 AI 背后思想的創(chuàng)造——正在努力使 AI 成為現(xiàn)實(shí),反對(duì)散布恐懼和末日論的墻試圖把他們描繪成魯莽的惡棍。我不相信他們是魯莽的或惡棍。他們都是英雄,每一個(gè)人。我和我的公司很高興能盡可能多地支持他們,我們將 100% 支持他們和他們的工作。

*Tech商業(yè)(ID:InnoBusiness)

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。

評(píng)論

暫無評(píng)論哦,快來評(píng)價(jià)一下吧!

下載界面新聞

微信公眾號(hào)

微博

硅谷預(yù)言家安德森最新長文:AI不會(huì)毀滅世界,反而可能拯救它

“人工智能是一臺(tái)機(jī)器——不會(huì)比你的烤面包機(jī)更有生命力?!?/p>

攝影:界面新聞 范劍磊

文|Tech商業(yè)

知名風(fēng)險(xiǎn)投資家馬克·安德森 (Marc Andreessen) 以“軟件正在吞噬世界software is eating the world”而聞名。在談到人工智能時(shí),他聲稱人們應(yīng)該停止擔(dān)心并持續(xù)創(chuàng)造。

周二,安德森發(fā)表了一篇萬字長文,闡述了他對(duì)人工智能的看法、它帶來的風(fēng)險(xiǎn)以及他認(rèn)為AI需要的監(jiān)管。在試圖抵消最近所有關(guān)于“AI 末日論”的討論時(shí),他提出了一種可以被視為過于理想主義的觀點(diǎn):‘AI不想殺你Doesn’t want to kill you’。

安德森從對(duì) AI 或機(jī)器學(xué)習(xí)的理解開始,稱其為“應(yīng)用數(shù)學(xué)和軟件代碼來教計(jì)算機(jī)如何以類似于人類的方式理解、綜合和生成知識(shí)”。

他說,人工智能是沒有感知力的——盡管它模仿人類語言的能力可以理解、愚弄一些人。事實(shí)是,它接受了人類語言的訓(xùn)練,并在該數(shù)據(jù)中找到高級(jí)模式。

“人工智能不想,它沒有目標(biāo),它不想殺死你,因?yàn)樗鼪]有生命,”他寫道。“人工智能是一臺(tái)機(jī)器——不會(huì)比你的烤面包機(jī)更有生命力。”

安德森寫道,目前在 AI 世界中有一堵“散布恐懼和末日論的墻”。在沒有點(diǎn)名的情況下,他可能指的是知名技術(shù)領(lǐng)導(dǎo)者聲,稱該技術(shù)對(duì)人類構(gòu)成生存威脅的說法。上周,微軟創(chuàng)始人比爾·蓋茨、OpenAI 首席執(zhí)行官薩姆·奧特曼Sam Altman、DeepMind 首席執(zhí)行官戴米斯·哈薩比斯Demis Hassabis 等人簽署了一封來自人工智能安全中心的關(guān)于“人工智能滅絕的風(fēng)險(xiǎn)the risk of extinction from AI”的信。

安德森寫道,科技公司的首席執(zhí)行官們有動(dòng)力宣揚(yáng)這種世界末日的觀點(diǎn),因?yàn)椤叭绻⒈O(jiān)管壁壘,AI 供應(yīng)商范圍就會(huì)受政府保護(hù) ,免受新創(chuàng)業(yè)公司和開源競爭的影響,他們就會(huì)賺更多的錢?!?/em>

許多人工智能研究人員和倫理學(xué)家也批評(píng)了世界末日的說法。一種觀點(diǎn)認(rèn)為,過分關(guān)注人工智能不斷增長的力量及其未來威脅,會(huì)分散人們對(duì)現(xiàn)實(shí)生活中一些算法對(duì)邊緣化社區(qū)造成危害的注意力,而不是在未指明的未來。

安德森寫道,擔(dān)任 AI 安全專家、AI 倫理學(xué)家和 AI 風(fēng)險(xiǎn)研究人員等角色的人“被付錢的監(jiān)督是注定要失敗的,他們的陳述應(yīng)該得到適當(dāng)?shù)奶幚?,”他寫道。?shí)際上,人工智能研究、倫理、信任和安全社區(qū)的許多領(lǐng)導(dǎo)者都明確反對(duì)末日議程,而是專注于減輕當(dāng)今記錄在案的技術(shù)風(fēng)險(xiǎn)。

安德森并沒有承認(rèn)任何記錄在案的人工智能在現(xiàn)實(shí)生活中的風(fēng)險(xiǎn)——它的偏見會(huì)影響面部識(shí)別系統(tǒng)、保釋決定、刑事司法程序、抵押貸款批準(zhǔn)算法等等——聲稱人工智能可能是“一種讓我們關(guān)心的一切變得更好的方法”。

他認(rèn)為,人工智能在生產(chǎn)力、科學(xué)突破、創(chuàng)意藝術(shù)和降低戰(zhàn)時(shí)死亡率方面具有巨大潛力。

“今天人們用他們的自然智能/智力做的任何事情,都可以用人工智能做得更好,”他寫道?!岸椅覀儗⒛軌驊?yīng)對(duì)沒有人工智能就無法應(yīng)對(duì)的新挑戰(zhàn),從治愈所有疾病到實(shí)現(xiàn)星際旅行?!?/em>

安德森在 1990 年代因開發(fā)第一個(gè)流行的互聯(lián)網(wǎng)瀏覽器而聲名鵲起,他于 2009 年與本霍洛維茨Ben Horowitz一起創(chuàng)辦了他的風(fēng)險(xiǎn)投資公司。兩年后,他寫了一篇經(jīng)常被引用的博客文章,題為“為什么軟件正在吞噬世界”,其中說就像之前的許多行業(yè)一樣,醫(yī)療保健和教育應(yīng)該進(jìn)行“基于軟件的基本轉(zhuǎn)型”。

“吞噬世界”Eating the world 正是許多人在談到 AI 時(shí)所害怕的。安德森說,除了試圖消除這些擔(dān)憂之外,還有很多工作要做。他鼓勵(lì)有爭議地使用 AI 本身,來保護(hù)人們免受 AI 偏見和傷害。

他說:“與私營部門合作的政府應(yīng)大力參與每個(gè)潛在風(fēng)險(xiǎn)領(lǐng)域,以利用人工智能最大限度地提高社會(huì)的防御能力?!?在安德森自己的理想主義未來中,“每個(gè)孩子都會(huì)有一位無限耐心、無限慈悲、無限知識(shí)、無限幫助的 AI 導(dǎo)師。” 對(duì)于人工智能作為每個(gè)人、科學(xué)家、教師、首席執(zhí)行官、政府領(lǐng)導(dǎo)人甚至軍事指揮官的合作伙伴和合作者的角色,他表達(dá)了類似的愿景。

在安德森的整篇文章中,他指出了其他人在公開表達(dá)他們對(duì) AI 的看法時(shí)的別有用心。但他也有自己的。他想在 AI 革命中賺錢,并以此為目標(biāo)投資初創(chuàng)公司。

“我不相信他們是魯莽的或惡棍,”他在帖子中總結(jié)道。“他們都是英雄,每一個(gè)人。我和我的公司很高興能盡可能多地支持他們,我們將 100% 支持他們和他們的工作?!?/em>

以下是安德森《為什么人工智能會(huì)拯救世界》Why AI Will Save The World 一文,編譯分享給大家:

人工智能時(shí)代來了,人們都嚇壞了。

幸運(yùn)的是,我來這里是為了帶來好消息:人工智能不會(huì)毀滅世界,實(shí)際上可能會(huì)拯救世界。

首先,簡要說明AI是什么:應(yīng)用數(shù)學(xué)和軟件代碼來教計(jì)算機(jī)如何以類似于人類的方式理解、綜合和生成知識(shí)。AI 是一種與其他任何計(jì)算機(jī)程序一樣的計(jì)算機(jī)程序——它運(yùn)行、接受輸入、處理并生成輸出。人工智能的輸出在廣泛的領(lǐng)域都很有用,從編程到醫(yī)學(xué)到法律再到創(chuàng)意藝術(shù)。與任何其他技術(shù)一樣,它由人擁有并由人控制。

對(duì) AI不是什么的簡短描述是:殺手軟件和機(jī)器人會(huì)突然復(fù)活并決定謀殺人類或以其他方式毀掉一切,就像你在電影中看到的那樣。

對(duì) AI可能是什么的更簡短描述是:一種讓我們關(guān)心的一切變得更好的方法。

為什么人工智能可以讓我們關(guān)心的一切變得更好

經(jīng)過幾十年和數(shù)千項(xiàng)研究,社會(huì)科學(xué)最有效的核心結(jié)論是,人類智力human intelligence可以改善廣泛范圍的生活結(jié)果。更聰明的人幾乎在每個(gè)活動(dòng)領(lǐng)域都有更好的結(jié)果:學(xué)業(yè)成績、工作表現(xiàn)、職業(yè)地位、收入、創(chuàng)造力、身體健康、長壽、學(xué)習(xí)新技能、管理復(fù)雜任務(wù)、領(lǐng)導(dǎo)力、創(chuàng)業(yè)成功、沖突解決、閱讀理解、財(cái)務(wù)決策制定、理解他人的觀點(diǎn)、創(chuàng)造性藝術(shù)、育兒成果和生活滿意度。

此外,人類智力是我們幾千年來用來創(chuàng)造我們今天生活的世界的杠桿:科學(xué)、技術(shù)、數(shù)學(xué)、物理、化學(xué)、醫(yī)學(xué)、能源、建筑、交通、通信、藝術(shù)、音樂、文化、哲學(xué)、道德,道德。如果沒有在所有這些領(lǐng)域應(yīng)用智力,我們都將仍然住在泥屋里,勉強(qiáng)維持生計(jì)農(nóng)業(yè)的微薄生存。相反,在過去的 4,000 年里,我們利用我們的智慧將我們的生活水平提高了 10,000 倍。

AI 為我們提供的是深刻增強(qiáng)人類智力的機(jī)會(huì),使所有這些智力成果——以及許多其他成果,從新藥的創(chuàng)造到解決氣候變化的方法,再到到達(dá)星際旅行的技術(shù)——從這里變得更好。

AI 對(duì)人類智能的增強(qiáng)已經(jīng)開始——AI 已經(jīng)以多種計(jì)算機(jī)控制系統(tǒng)的形式存在于我們身邊,現(xiàn)在正通過 ChatGPT 等 AI 大型語言模型迅速升級(jí),并且從這里開始加速——如果我們?cè)试S的話。

在我們的人工智能新時(shí)代:

每個(gè)孩子都會(huì)有一位無限耐心、無限慈悲、無限知識(shí)、無限幫助的AI導(dǎo)師。AI導(dǎo)師將陪伴在每個(gè)孩子成長的每一步,用無限愛的機(jī)器版幫助他們發(fā)揮最大潛能。

每個(gè)人都會(huì)有一位無限耐心、無限同情、無限知識(shí)和無限幫助的 AI 助手/教練/導(dǎo)師/培訓(xùn)師/顧問/治療師。人工智能助手將在生活中的所有機(jī)遇和挑戰(zhàn)中出現(xiàn),最大限度地提高每個(gè)人的成果。

每個(gè)科學(xué)家都會(huì)有一個(gè) AI 助手/合作者/伙伴,這將極大地?cái)U(kuò)展他們的科學(xué)研究和成果范圍。每個(gè)藝術(shù)家、每個(gè)工程師、每個(gè)商人、每個(gè)醫(yī)生、每個(gè)護(hù)理人員都會(huì)在他們的世界中擁有相同的東西。

每個(gè)人的領(lǐng)導(dǎo)者——首席執(zhí)行官、政府官員、非營利組織主席、體育教練、教師——都會(huì)有同樣的東西。領(lǐng)導(dǎo)者做出的更好決策對(duì)他們所領(lǐng)導(dǎo)的人的放大效應(yīng)是巨大的,因此這種智力增強(qiáng)可能是最重要的。

整個(gè)經(jīng)濟(jì)體的生產(chǎn)率增長將急劇加快,推動(dòng)經(jīng)濟(jì)增長、新產(chǎn)業(yè)的創(chuàng)造、新就業(yè)機(jī)會(huì)的創(chuàng)造和工資增長,并導(dǎo)致全球物質(zhì)繁榮的新時(shí)代到來。

隨著人工智能幫助我們進(jìn)一步破譯自然法則并為我們謀取利益,科學(xué)突破以及新技術(shù)和藥物將顯著擴(kuò)展。

創(chuàng)意藝術(shù)將進(jìn)入黃金時(shí)代,因?yàn)槿斯ぶ悄茉鰪?qiáng)的藝術(shù)家、音樂家、作家和電影制作人將能夠比以往任何時(shí)候更快、更大規(guī)模地實(shí)現(xiàn)他們的愿景。

我甚至認(rèn)為人工智能將在必要時(shí)通過大幅降低戰(zhàn)時(shí)死亡率來改善戰(zhàn)爭。每一場戰(zhàn)爭的特點(diǎn)都是在巨大的壓力下做出可怕的決定,并且由非常有限的人類領(lǐng)導(dǎo)人提供極其有限的信息?,F(xiàn)在,軍事指揮官和政治領(lǐng)導(dǎo)人將擁有人工智能顧問,幫助他們做出更好的戰(zhàn)略和戰(zhàn)術(shù)決策,最大限度地減少風(fēng)險(xiǎn)、錯(cuò)誤和不必要的流血事件。

簡而言之,當(dāng)今人們利用其自然智能所做的任何事情都可以通過 AI 做得更好,我們將能夠應(yīng)對(duì)如果沒有 AI 就無法應(yīng)對(duì)的新挑戰(zhàn),從治愈所有疾病到實(shí)現(xiàn)星際旅行。

這不僅僅是關(guān)于智力!也許人工智能最被低估的品質(zhì)是它的人性化程度。人工智能藝術(shù)讓缺乏技術(shù)技能的人可以自由地創(chuàng)造和分享他們的藝術(shù)想法。與善解人意的 AI 朋友交談確實(shí)可以提高他們處理逆境的能力。人工智能醫(yī)療聊天機(jī)器人已經(jīng)比人類同行更具同理心。無限耐心和富有同情心的人工智能不會(huì)讓世界變得更加嚴(yán)酷和機(jī)械化,而是會(huì)讓世界變得更加溫暖和美好。

這里的風(fēng)險(xiǎn)很高。機(jī)遇是深遠(yuǎn)的。人工智能很可能是我們文明所創(chuàng)造的最重要——也是最好的——東西,當(dāng)然可以與電力和微芯片相提并論,甚至可能超越它們。

人工智能的發(fā)展和擴(kuò)散——遠(yuǎn)非我們應(yīng)該擔(dān)心的風(fēng)險(xiǎn)——是我們對(duì)自己、對(duì)我們的孩子和對(duì)我們的未來所承擔(dān)的道德義務(wù)。

有了人工智能,我們應(yīng)該生活在一個(gè)更美好的世界中,現(xiàn)在我們可以做到。

那么為什么恐慌?

與這種積極觀點(diǎn)形成鮮明對(duì)比的是,目前關(guān)于 AI 的公眾對(duì)話充斥著歇斯底里的恐懼和偏執(zhí)狂。

我們聽到這樣的說法,人工智能會(huì)以各種方式殺死我們所有人,毀掉我們的社會(huì),奪走我們所有的工作,造成嚴(yán)重的不平等,并讓壞人做出可怕的事情。

如何解釋這種從近乎烏托邦到可怕的反烏托邦的潛在結(jié)果的差異?

從歷史上看,每一項(xiàng)重要的新技術(shù),從電燈到汽車到收音機(jī)再到互聯(lián)網(wǎng),都引發(fā)了一種讓人們相信新技術(shù)將摧毀世界、社會(huì)的影響。幾十年來,悲觀主義者檔案館的優(yōu)秀人士記錄了這些技術(shù)驅(qū)動(dòng)的道德恐慌;他們的歷史使這種模式生動(dòng)清晰。事實(shí)證明,目前的恐慌甚至不是 AI 的第一次。

現(xiàn)在,可以肯定的是,許多新技術(shù)導(dǎo)致了糟糕的結(jié)果——通常是同樣的技術(shù)在其他方面對(duì)我們的福祉產(chǎn)生了巨大的好處。因此,僅僅存在道德恐慌并不意味著沒有什么可擔(dān)心的。

但道德恐慌本質(zhì)上是非理性的——它把可能是合理的擔(dān)憂夸大到歇斯底里的程度,具有諷刺意味的是,這使得人們更難面對(duì)真正嚴(yán)重的擔(dān)憂。

我們現(xiàn)在對(duì)人工智能有全面的道德恐慌嗎?

這種道德恐慌已經(jīng)被各種參與者用作動(dòng)力,要求采取政策行動(dòng)——新的 AI 限制、法規(guī)和法律。這些行動(dòng)者就人工智能的危險(xiǎn)發(fā)表了極其戲劇化的公開聲明——助長并進(jìn)一步煽動(dòng)道德恐慌——所有這些人都把自己表現(xiàn)為公共利益的無私捍衛(wèi)者。

但他們是嗎?

他們是對(duì)還是錯(cuò)?

人工智能的浸信會(huì)和走私者

經(jīng)濟(jì)學(xué)家觀察到這種改革運(yùn)動(dòng)的長期模式。這些運(yùn)動(dòng)中的參與者分為兩類——“浸信會(huì)”和“走私者”——借鑒了1920 年代美國禁酒的歷史例子:

“浸信會(huì)”是真正的信徒社會(huì)改革者,他們合理地——深刻地和情緒化地,如果不是理性地——認(rèn)為需要新的限制、法規(guī)和法律來防止社會(huì)災(zāi)難。

對(duì)于禁酒令,這些行動(dòng)者通常是真正虔誠的基督徒,他們認(rèn)為酒精正在破壞社會(huì)的道德結(jié)構(gòu)。

對(duì)于 AI 風(fēng)險(xiǎn),這些參與者真正相信 AI 會(huì)帶來一種或另一種存在風(fēng)險(xiǎn)——將他們綁在測謊儀上,他們是認(rèn)真的。

“走私者”是自私自利的機(jī)會(huì)主義者,他們通過實(shí)施新的限制、法規(guī)和法律將他們與競爭對(duì)手隔離開來,從而在經(jīng)濟(jì)上獲利。

對(duì)于禁酒,這些是字面上的私酒販子,他們?cè)诮购戏ň祁愪N售時(shí)向美國人出售非法酒類發(fā)了財(cái)。

對(duì)于 AI 風(fēng)險(xiǎn),如果建立監(jiān)管壁壘,這些 CEO 將賺更多的錢,這些壁壘形成了一個(gè)由政府支持的 AI 供應(yīng)商組成的卡特爾,保護(hù)它們免受新創(chuàng)業(yè)公司和開源競爭的影響——“大而不倒”銀行的軟件版本。

憤世嫉俗的人會(huì)認(rèn)為,一些明顯的浸信會(huì)教徒也是走私者——特別是那些被他們的大學(xué)、智囊團(tuán)、活動(dòng)家團(tuán)體和媒體機(jī)構(gòu)付錢攻擊 AI 的人。如果你拿薪水或接受助學(xué)金來助長 AI 恐慌……你可能是走私者。

走私者的問題在于他們會(huì)贏得他們想要的。浸信會(huì)是天真的空想家,走私者是憤世嫉俗的經(jīng)營者,所以像這樣的改革運(yùn)動(dòng)的結(jié)果往往是走私者得到他們想要的東西——監(jiān)管俘獲、競爭隔離、卡特爾的形成——而浸信會(huì)則感到疑惑他們推動(dòng)社會(huì)進(jìn)步的動(dòng)力在哪里出錯(cuò)了。

我們剛剛經(jīng)歷了一個(gè)令人震驚的例子——2008 年全球金融危機(jī)后的銀行業(yè)改革。浸信會(huì)告訴我們,我們需要新的法律法規(guī)來拆分“大到不能倒”的銀行,以防止此類危機(jī)再次發(fā)生。因此,(美)國會(huì)通過了 2010 年的多德-弗蘭克法案,該法案標(biāo)榜為滿足浸信會(huì)的目標(biāo),但實(shí)際上卻被走私者——大銀行所采用。結(jié)果是,2008 年“大到而能倒”的銀行現(xiàn)在規(guī)模大得多。

所以在實(shí)踐中,即使浸信會(huì)是真誠的——即使浸信會(huì)是正確的——他們也被操縱和貪污的私酒販子用作掩護(hù),以使自己受益。

這就是目前在推動(dòng) AI 監(jiān)管方面正在發(fā)生的事情。

然而,僅僅確定行動(dòng)者身份并質(zhì)疑他們的動(dòng)機(jī)是不夠的。我們應(yīng)該考慮浸信會(huì)和走私者的論點(diǎn)。

AI 風(fēng)險(xiǎn) #1:AI 會(huì)殺死我們所有人嗎?

第一個(gè)也是最初的 AI 末日風(fēng)險(xiǎn)是 AI 將決定真正殺死人類。

對(duì)我們自己創(chuàng)造的技術(shù)會(huì)興起并摧毀我們的恐懼深深地融入了我們的文化中。希臘人在普羅米修斯神話中表達(dá)了這種恐懼——普羅米修斯給人類帶來了火的破壞力,更普遍的是技術(shù)(“techne”),為此普羅米修斯被眾神判處永久折磨。 后來,瑪麗雪萊在她的小說《弗蘭肯斯坦》或《現(xiàn)代普羅米修斯》 中為我們現(xiàn)代人提供了這個(gè)神話的版本,我們?cè)谄渲虚_發(fā)永生技術(shù),然后崛起并試圖摧毀我們。當(dāng)然,如果沒有詹姆斯·卡梅隆的終結(jié)者電影中閃閃發(fā)光的紅眼殺人機(jī)器人的靜止圖像,任何關(guān)于 AI 恐慌的報(bào)紙報(bào)道都是不完整的。

這個(gè)神話的假定進(jìn)化目的是激勵(lì)我們認(rèn)真考慮新技術(shù)的潛在風(fēng)險(xiǎn)——畢竟,火確實(shí)可以用來燒毀整個(gè)城市。但正如火也是現(xiàn)代文明的基礎(chǔ),在寒冷和充滿敵意的世界中讓我們保持溫暖和安全一樣,這個(gè)神話忽略了大多數(shù) - 全部?– 新技術(shù),在實(shí)踐中激起了破壞性的情緒,而不是理性的分析。僅僅因?yàn)榍艾F(xiàn)代人像這樣嚇壞了并不意味著我們必須這樣做;我們可以改用理性。

我的觀點(diǎn)是,人工智能將決定真正殺死人類的想法是一個(gè)嚴(yán)重的類別錯(cuò)誤。人工智能不是經(jīng)過數(shù)十億年的進(jìn)化而準(zhǔn)備參與適者生存之戰(zhàn)的生物——就像動(dòng)物和我們一樣。它是數(shù)學(xué)-代碼-計(jì)算機(jī),由人建造,由人擁有,由人使用,由人控制。它會(huì)在某個(gè)時(shí)候發(fā)展出自己的思想并決定它有導(dǎo)致自己試圖殺死人類的動(dòng)機(jī)是一種迷信。

簡而言之,AI 不想,它沒有目標(biāo),它不想殺死人類,因?yàn)樗鼪]有生命。人工智能是一臺(tái)機(jī)器——不會(huì)比你的烤面包機(jī)更有生命地活躍起來。

現(xiàn)在,很明顯,人工智能會(huì)毀滅人類的真正信徒——浸信會(huì)——他們的可怕警告突然獲得了大量的媒體報(bào)道,其中一些人聲稱已經(jīng)研究這個(gè)話題幾十年了,并說他們現(xiàn)在害怕自己的生活他們所學(xué)的思想。其中一些真正的信徒甚至是該技術(shù)的實(shí)際創(chuàng)新者。這些參與者主張對(duì) AI 實(shí)施各種奇怪和極端的限制,從禁止 AI 開發(fā),一直到對(duì)數(shù)據(jù)中心的軍事空襲和核戰(zhàn)爭。他們爭辯說,因?yàn)橄裎疫@樣的人不能排除人工智能未來的災(zāi)難性后果,我們必須采取預(yù)防措施為了防止?jié)撛诘纳骘L(fēng)險(xiǎn),可能需要大量的身體暴力和死亡的立場。

我的回答是他們的立場是非科學(xué)的——什么是可檢驗(yàn)的假設(shè)?什么會(huì)證偽這個(gè)假設(shè)?我們?cè)趺粗牢覀兒螘r(shí)進(jìn)入危險(xiǎn)區(qū)域?除了“你無法證明它不會(huì)發(fā)生!”之外,這些問題基本上沒有答案。事實(shí)上,這些浸信會(huì)的立場是如此不科學(xué)和 極端——一個(gè)關(guān)于數(shù)學(xué)和代碼的陰謀論——并且已經(jīng)在呼吁身體暴力,以至于我會(huì)做一些我通常不會(huì)做的事情,并質(zhì)疑他們的動(dòng)機(jī)。

具體來說,我認(rèn)為有以下三點(diǎn):

首先,回想一下約翰·馮·諾伊曼回應(yīng)羅伯特·奧本海默著名的關(guān)于他在制造核武器方面的作用——這有助于結(jié)束第二次世界大戰(zhàn)并防止第三次世界大戰(zhàn)——的回應(yīng)是,“有些人承認(rèn)有罪以聲稱自己的罪過?!?一個(gè)人可以在不顯得過于自負(fù)的情況下宣稱自己工作的重要性是最引人注目的方式是什么?這解釋了實(shí)際上正在構(gòu)建和資助 AI 的浸信會(huì)的言行之間的不匹配——注意他們的行動(dòng),而不是他們的話。(杜魯門在與奧本海默會(huì)面后更加嚴(yán)厲: “別再讓那個(gè)愛哭鬼進(jìn)來了?!?“Don’t let that crybaby in here again.”))

其次,一些浸信會(huì)實(shí)際上是走私者。有一整套“AI安全專家”、“AI倫理學(xué)家”、“AI風(fēng)險(xiǎn)研究員”的職業(yè)。他們被付錢是注定要失敗的,他們的陳述應(yīng)該得到適當(dāng)?shù)奶幚怼?/p>

第三,加利福尼亞以數(shù)以千計(jì)的異教信仰Cults而聞名,從 EST 到人民圣殿教,從天堂之門到曼森家族。這些團(tuán)體中有許多(盡管不是全部)是無害的,甚至可能為那些在其中找到歸宿的異化者服務(wù)。但有些確實(shí)非常危險(xiǎn),眾所周知,邪教很難跨越最終導(dǎo)致暴力和死亡的界限。

灣區(qū)內(nèi)的每個(gè)人都清楚但灣區(qū)外可能并非如此的現(xiàn)實(shí)是,“AI 風(fēng)險(xiǎn)”已經(jīng)發(fā)展成為一種異教,它突然出現(xiàn)在全球媒體關(guān)注和公眾對(duì)話的日光下。這種異教不僅吸引了邊緣人物,還吸引了一些真正的行業(yè)專家和不少富有的捐助者——包括直到最近的Sam Bankman-Fried (FTX聯(lián)合創(chuàng)始人)。它發(fā)展出一整套異教行為和信仰。

這種異教就是為什么有一組 AI 風(fēng)險(xiǎn)末日論者聽起來如此極端的原因——并不是說他們實(shí)際上擁有使他們的極端主義合乎邏輯的秘密知識(shí),而是他們已經(jīng)把自己鞭打到狂熱中并且真的……極端極端。

......

不要誤會(huì)我的意思,異教很有趣,他們的書面材料通常富有創(chuàng)意和引人入勝,而且他們的成員在晚宴和電視上都很活躍。但他們的極端信仰不應(yīng)該決定法律和社會(huì)的未來——顯然也不是未來。

AI 風(fēng)險(xiǎn) #2:AI 會(huì)毀掉我們的社會(huì)嗎?

第二個(gè)廣泛討論的 AI 風(fēng)險(xiǎn)是 AI 會(huì)通過產(chǎn)生如此“有害”的輸出來破壞我們的社會(huì),使用這種末日毀滅者的術(shù)語,對(duì)人類造成深遠(yuǎn)的損害,即使我們不是字面上的殺了。

簡短版本:如果殺人機(jī)器人沒有抓住我們,仇恨言論和錯(cuò)誤信息就會(huì)。

這是一個(gè)相對(duì)較新的末日擔(dān)憂,它從我上面描述的“AI 風(fēng)險(xiǎn)”運(yùn)動(dòng)中分支出來并在某種程度上接管了它。事實(shí)上,人工智能風(fēng)險(xiǎn)的術(shù)語最近從“人工智能安全”——擔(dān)心人工智能會(huì)真正殺死我們的人使用的術(shù)語——變成了“人工智能對(duì)齊Alignment”——擔(dān)心社會(huì)“危害”的人使用的術(shù)語。最初的 AI 安全人士對(duì)這種轉(zhuǎn)變感到沮喪,盡管他們不知道如何將其放回原處——他們現(xiàn)在主張將實(shí)際,該主題尚未被廣泛采用但至少是清楚的。

AI 社會(huì)風(fēng)險(xiǎn)聲明的本質(zhì)是它自己的術(shù)語“AI 對(duì)齊Alignment”。對(duì)齊什么? 人類價(jià)值觀。 誰的人文價(jià)值觀念?啊,這就是事情變得棘手的地方。

碰巧的是,我曾在類似的情況下坐在前排——社交媒體“信任與安全”戰(zhàn)爭?,F(xiàn)在很明顯,社交媒體服務(wù)多年來一直承受著來自政府和活動(dòng)家的巨大壓力,要求禁止、限制、審查和以其他方式壓制范圍廣泛的內(nèi)容。對(duì)“仇恨言論”(及其數(shù)學(xué)對(duì)應(yīng)物“算法偏見”)和“錯(cuò)誤信息”的同樣擔(dān)憂正從社交媒體語境直接轉(zhuǎn)移到“人工智能對(duì)齊”的新領(lǐng)域。

我從社交媒體大戰(zhàn)中學(xué)到的重要知識(shí)是:

一方面,沒有絕對(duì)的言論自由立場。首先,包括美國在內(nèi)的每個(gè)國家都至少將某些內(nèi)容定為非法 。其次,有某些類型的內(nèi)容,例如兒童色情和煽動(dòng)現(xiàn)實(shí)世界中的暴力,幾乎每個(gè)社會(huì)都幾乎普遍同意禁止訪問這些內(nèi)容——無論合法與否。因此,任何促進(jìn)或生成內(nèi)容(語音)的技術(shù)平臺(tái)都會(huì)受到一些限制。

另一方面,滑坡并不是謬誤,而是必然。一旦限制極其可怕的內(nèi)容的框架到位——例如,針對(duì)仇恨言論,一個(gè)特定的傷害性詞語,或針對(duì)錯(cuò)誤信息,明顯是虛假的聲明,如“教皇已死”——范圍廣泛的政府機(jī)構(gòu) “和維權(quán)” 人士壓力團(tuán)體和 非政府實(shí)體將開始行動(dòng),并要求對(duì)他們認(rèn)為對(duì)社會(huì)和/或他們自己的個(gè)人偏好構(gòu)成威脅的任何言論進(jìn)行更嚴(yán)格的審查和壓制。他們將以赤裸裸的重罪方式做到這一點(diǎn) ——這個(gè)循環(huán)在實(shí)踐中顯然可以永遠(yuǎn)運(yùn)行,在我們精英權(quán)力結(jié)構(gòu)中安裝的專制大廳監(jiān)視器的熱情支持下。這已經(jīng)在社交媒體上流傳了十年,而且除了某些例外情況外,一直都在變得更加狂熱。

這就是現(xiàn)在圍繞“AI 對(duì)齊”形成的動(dòng)態(tài)。它的支持者聲稱有智慧來設(shè)計(jì) AI 生成的對(duì)社會(huì)有益的言論和思想,并禁止 AI 生成的對(duì)社會(huì)有害的言論和思想。它的反對(duì)者聲稱,思想警察是驚人的傲慢和專橫——而且往往是徹頭徹尾的犯罪,至少在美國是這樣——事實(shí)上,他們正在尋求成為一種新型的政府-企業(yè)-學(xué)術(shù)融合的專制言論專政——直接到喬治·奧威爾的1984 。

由于“信任與安全”和“人工智能對(duì)其”的支持者聚集在全球人口中非常小的一部分,這是美國沿海精英的特征——其中包括許多在科技行業(yè)工作和撰寫科技行業(yè)的人——許多我的讀者會(huì)發(fā)現(xiàn)自己準(zhǔn)備爭辯說需要對(duì) AI 輸出進(jìn)行嚴(yán)格限制以避免破壞社會(huì)。我現(xiàn)在不會(huì)試圖說服你,我只是簡單地說,這是需求的本質(zhì),世界上大多數(shù)人既不同意你的意識(shí)形態(tài),也不希望看到你獲勝。

如果你不同意通過不斷強(qiáng)化的語音代碼強(qiáng)加給社交媒體和人工智能的主流利基道德,你還應(yīng)該意識(shí)到,關(guān)于允許人工智能說/生成什么的斗爭將更加重要 –很多- 而不是圍繞社交媒體審查制度的斗爭。人工智能極有可能成為世界萬物的控制層。它如何被允許運(yùn)作可能比其他任何事情都更重要。你應(yīng)該知道一小群孤立的黨派社會(huì)工程師如何在古老的聲稱他們正在保護(hù)你的掩護(hù)下試圖確定這一點(diǎn)。

總之,不要讓思想警察打壓AI。

AI 風(fēng)險(xiǎn) #3:AI 會(huì)搶走我們所有的工作嗎?

自機(jī)器織機(jī)等機(jī)器最初出現(xiàn)以來,數(shù)百年來,人們對(duì)因機(jī)械化、自動(dòng)化、計(jì)算機(jī)化或人工智能而導(dǎo)致失業(yè)的恐懼一直是一種反復(fù)出現(xiàn)的恐慌。盡管在歷史上每一項(xiàng)新的主要技術(shù)都以更高的工資帶來了更多的工作,但每一波恐慌都伴隨著“這次不同”的說法——這是它最終會(huì)發(fā)生的時(shí)間,這是最終會(huì)發(fā)生的技術(shù)對(duì)人類勞動(dòng)進(jìn)行錘擊。然而,它從未發(fā)生過。

我們最近經(jīng)歷了兩次這樣的技術(shù)驅(qū)動(dòng)的失業(yè)恐慌周期 ——2000 年代的外包恐慌和2010 年代的自動(dòng)化恐慌。盡管在過去的幾十年里,許多會(huì)說話的人、專家,甚至科技行業(yè)的高管都在敲桌子說大規(guī)模失業(yè)迫在眉睫,但到 2019 年底——就在 COVID 爆發(fā)之前——世界上的工作崗位比歷史上任何時(shí)候都多,工資更高。

不過這個(gè)錯(cuò)誤的想法是不會(huì)死的。

果然,它回來了。

這一次,我們終于擁有了將取代所有工作并使人類工人變得多余的技術(shù)—— 真正的人工智能。這一次歷史肯定不會(huì)重演,人工智能將導(dǎo)致大規(guī)模失業(yè)——而不是經(jīng)濟(jì)、就業(yè)和工資的快速增長——對(duì)吧?

不,這不會(huì)發(fā)生——事實(shí)上,如果允許人工智能在整個(gè)經(jīng)濟(jì)中發(fā)展和擴(kuò)散,可能會(huì)導(dǎo)致有史以來最劇烈和持續(xù)的經(jīng)濟(jì)繁榮,相應(yīng)地創(chuàng)紀(jì)錄的工作和工資增長——與恐懼完全相反。

自動(dòng)化扼殺工作的厄運(yùn)論者不斷犯的核心錯(cuò)誤被稱勞動(dòng)力謬誤Lump Of Labor Fallacy。這種謬誤是錯(cuò)誤的觀念,即在任何給定時(shí)間經(jīng)濟(jì)中都有固定數(shù)量的勞動(dòng)要做,機(jī)器做或人做——如果機(jī)器做,人就沒有工作可做...

勞動(dòng)塊謬誤自然源于幼稚的直覺,但幼稚的直覺在這里是錯(cuò)誤的。當(dāng)技術(shù)應(yīng)用于生產(chǎn)時(shí),我們會(huì)提高生產(chǎn)率——通過減少投入來增加產(chǎn)出。結(jié)果是商品和服務(wù)的價(jià)格降低。隨著商品和服務(wù)價(jià)格的下降,我們?yōu)樗鼈冎Ц兜馁M(fèi)用減少,這意味著我們現(xiàn)在有額外的消費(fèi)能力來購買其他東西。這增加了經(jīng)濟(jì)中的需求,從而推動(dòng)了新生產(chǎn)的創(chuàng)造——包括新產(chǎn)品和新產(chǎn)業(yè), 然后為那些在以前的工作中被機(jī)器取代的人創(chuàng)造新的就業(yè)機(jī)會(huì)。其結(jié)果是一個(gè)更大的經(jīng)濟(jì)體,擁有更高的物質(zhì)繁榮、更多的工業(yè)、更多的產(chǎn)品和更多的就業(yè)機(jī)會(huì)。

但好消息并不止于此。我們也可以獲得更高的工資。這是因?yàn)椋趥€(gè)體工人的層面上,市場將報(bào)酬設(shè)定為的函數(shù)。技術(shù)注入型企業(yè)的員工比傳統(tǒng)企業(yè)的員工更有效率。雇主要么支付該工人更多的錢,因?yàn)樗F(xiàn)在的工作效率更高,要么另一個(gè)雇主純粹出于自身利益。結(jié)果是,引入一個(gè)行業(yè)的技術(shù)通常不僅會(huì)增加該行業(yè)的就業(yè)人數(shù),還會(huì)提高工資。

總而言之,技術(shù)使人們能夠提高工作效率。這導(dǎo)致現(xiàn)有商品和服務(wù)的價(jià)格下降,工資上漲。這反過來又會(huì)促進(jìn)經(jīng)濟(jì)增長和就業(yè)增長,同時(shí)推動(dòng)創(chuàng)造新的就業(yè)機(jī)會(huì)和新的產(chǎn)業(yè)。如果允許市場經(jīng)濟(jì)正常運(yùn)行,如果允許技術(shù)自由引進(jìn),這是一個(gè)永無止境的永恒上升循環(huán)。因?yàn)?,正如米爾頓·弗里德曼 (Milton Friedman) 觀察到的那樣,“人類的需求是無止境的”——我們想要的總是比我們擁有的更多。一個(gè)技術(shù)注入的市場經(jīng)濟(jì)是我們更接近于提供每個(gè)人都可以想象到的一切的方式,但從來沒有完全實(shí)現(xiàn)。這就是為什么技術(shù)不會(huì)而且永遠(yuǎn)不會(huì)破壞工作。

對(duì)于那些沒有接觸過它們的人來說,這些想法是如此令人興奮,你可能需要一些時(shí)間來理解它們。但我發(fā)誓它們不是我編造的——事實(shí)上你可以在標(biāo)準(zhǔn)的經(jīng)濟(jì)學(xué)教科書中讀到所有關(guān)于它們的內(nèi)容。我推薦Henry Hazlitt 的《經(jīng)濟(jì)學(xué)一課》中的機(jī)械詛咒The Curse of Machinery一章,以及 Frederic Bastiat 的諷刺蠟燭制造者請(qǐng)?jiān)笗?,因?yàn)樗c照明行業(yè)的不公平競爭而遮蔽了太陽,這里為我們的時(shí)代進(jìn)行了現(xiàn)代化改造。

但這次不一樣,你在想。 這一次,有了人工智能,我們擁有了可以取代所有人類勞動(dòng)的技術(shù)。

但是,使用我上面描述的原則,想一想從字面上看,所有現(xiàn)有的人類勞動(dòng)都將被機(jī)器取代意味著什么。

這將意味著經(jīng)濟(jì)生產(chǎn)力增長的起飛速度絕對(duì)是驚人的,遠(yuǎn)遠(yuǎn)超過任何歷史先例?,F(xiàn)有商品和服務(wù)的價(jià)格將全面下降至幾乎為零。消費(fèi)者福利將飆升。消費(fèi)者的消費(fèi)能力將飆升。經(jīng)濟(jì)中的新需求將會(huì)爆發(fā)。企業(yè)家們將創(chuàng)造出令人眼花繚亂的新產(chǎn)業(yè)、新產(chǎn)品和新服務(wù),并盡可能快地雇傭盡可能多的人和人工智能來滿足所有新需求。

假設(shè)人工智能再次取代勞動(dòng)力——循環(huán)將重復(fù),推動(dòng)消費(fèi)者福利、經(jīng)濟(jì)增長以及就業(yè)和工資增長更高。這將是一個(gè)直線上升的物質(zhì)烏托邦,這是亞當(dāng)·斯密或卡爾·馬克思都不敢夢想的。

我們將會(huì)變得如此幸運(yùn)。

AI 風(fēng)險(xiǎn) #4:AI 會(huì)導(dǎo)致嚴(yán)重的不平等嗎?

說到卡爾·馬克思,對(duì)人工智能搶走工作的擔(dān)憂直接引出了下一個(gè)聲稱的人工智能風(fēng)險(xiǎn),那就是,馬克思,假設(shè)人工智能確實(shí)搶走了所有的工作,無論是好是壞。這會(huì)不會(huì)導(dǎo)致嚴(yán)重的財(cái)富不平等,因?yàn)槿斯ぶ悄艿乃姓攉@得了所有的經(jīng)濟(jì)回報(bào)而普通人一無所獲?

事實(shí)上,這是馬克思主義的一個(gè)核心主張,即生產(chǎn)資料的所有者——資產(chǎn)階級(jí)——將不可避免地從從事實(shí)際工作的人——無產(chǎn)階級(jí)那里竊取所有社會(huì)財(cái)富。

這個(gè)理論的缺陷在于,作為一項(xiàng)技術(shù)的所有者,將它留給自己并不符合你自己的利益——事實(shí)上恰恰相反,將它賣給盡可能多的客戶符合你自己的利益。世界上任何產(chǎn)品最大的市場是整個(gè)世界,我們 80 億人。所以在現(xiàn)實(shí)中,每一項(xiàng)新技術(shù)——即使是那些開始銷售給高薪大公司或富裕消費(fèi)者的稀薄空氣的技術(shù)——都會(huì)迅速擴(kuò)散,直到它到達(dá)盡可能大的大眾市場,最終到達(dá)地球上的每個(gè)人的手中。

這方面的典型例子是埃隆·馬斯克 (Elon Musk) 在 2006 年為特斯拉制定的所謂 “秘密計(jì)劃” —他自然而然地公開了這一計(jì)劃:

第 1 步,打造 [昂貴] 跑車Step 1

第 2 步,用這筆錢制造一輛負(fù)擔(dān)得起的汽車

第 3 步,用這筆錢制造一輛更實(shí)惠的汽車

......當(dāng)然這正是他所做的,結(jié)果成為世界上最富有的人。

最后一點(diǎn)是關(guān)鍵。如果埃隆今天只賣汽車給富人,他會(huì)更富有嗎?不,如果他只為自己制造汽車,他會(huì)比這更富有嗎?當(dāng)然不是。不,他通過向世界這個(gè)最大的可能市場銷售來最大化自己的利潤。

簡而言之,每個(gè)人都得到了東西——正如我們?cè)谶^去看到的,不僅有汽車,還有電力、收音機(jī)、電腦、互聯(lián)網(wǎng)、手機(jī)和搜索引擎。此類技術(shù)的制造商非常積極地降低價(jià)格,直到地球上的每個(gè)人都能負(fù)擔(dān)得起。這正是 AI 中已經(jīng)發(fā)生的事情——這就是為什么你不僅可以低成本使用最先進(jìn)的生成 AI,甚至可以免費(fèi)使用 Microsoft Bing 和 Google Bard 的形式——而且這將繼續(xù)發(fā)生。不是因?yàn)檫@些供應(yīng)商愚蠢或慷慨,而是因?yàn)樗麄冐澙贰麄兿胍畲蠡麄兊氖袌鲆?guī)模,從而最大化他們的利潤。

因此,發(fā)生的情況與技術(shù)推動(dòng)財(cái)富集中化相反——技術(shù)的個(gè)人客戶,最終包括地球上的每個(gè)人,反而被賦予了權(quán)力,并獲得了大部分產(chǎn)生的價(jià)值。與現(xiàn)有技術(shù)一樣,構(gòu)建人工智能的公司——假設(shè)它們必須在自由市場中運(yùn)作——將激烈競爭以實(shí)現(xiàn)這一目標(biāo)。

這并不是說不平等不是我們社會(huì)的問題。是的,它不是由技術(shù)驅(qū)動(dòng),而是被相反的驅(qū)動(dòng),由對(duì)新技術(shù)最有抵抗力的經(jīng)濟(jì)部門驅(qū)動(dòng),這些經(jīng)濟(jì)部門有最多的政府干預(yù)來阻止采用像人工智能這樣的新技術(shù)——特別是住房、教育和醫(yī)療保健。AI 和不平等的實(shí)際風(fēng)險(xiǎn)不是 AI 會(huì)導(dǎo)致更多的不平等,而是我們不允許 AI 被用來減少不平等。

AI 風(fēng)險(xiǎn) #5:AI 會(huì)導(dǎo)致壞人做壞事嗎?

到目前為止,我已經(jīng)解釋了為什么五個(gè)最常被提及的 AI 風(fēng)險(xiǎn)中有四個(gè)實(shí)際上并不真實(shí)——AI 不會(huì)復(fù)活并殺死我們,AI 不會(huì)毀滅我們的社會(huì),AI 不會(huì)導(dǎo)致大規(guī)模失業(yè),AI 不會(huì)導(dǎo)致不平等的破壞性增加,但現(xiàn)在讓我們談?wù)劦谖妩c(diǎn),我非常同意的一點(diǎn):人工智能將使壞人更容易做壞事。

從某種意義上說,這是一個(gè)同義反復(fù)。技術(shù)是一種工具。工具,從火和石頭開始,可以用來做好事——做飯和蓋房子——也可以用來做壞事——燒人和打人。任何技術(shù)都可以用于好事或壞事。很公平。毫無疑問,人工智能將使罪犯、恐怖分子和敵對(duì)政府更容易做壞事。

這導(dǎo)致一些人提議,好吧,既然如此,我們就不要冒險(xiǎn)了,讓我們?cè)谶@種情況發(fā)生之前禁止人工智能吧。不幸的是,人工智能并不是像钚那樣難以獲得的深?yuàn)W物理材料。恰恰相反,它是世界上最容易獲得的材料——數(shù)學(xué)和代碼。

你可以從數(shù)以千計(jì)的免費(fèi)在線課程、書籍、論文和視頻中學(xué)習(xí)如何構(gòu)建 AI,而且優(yōu)秀的開源實(shí)現(xiàn)每天都在激增。人工智能就像空氣——它將無處不在。逮捕如此嚴(yán)酷的人所需的極權(quán)主義壓迫程度——一個(gè)監(jiān)視和控制所有計(jì)算機(jī)的世界政府?黑色直升機(jī)中的長靴暴徒奪取流氓 GPU?– 我們不會(huì)有一個(gè)社會(huì)需要保護(hù)。

因此,有兩種非常直接的方法可以解決壞人用人工智能做壞事的風(fēng)險(xiǎn),而這些正是我們應(yīng)該關(guān)注的。

首先,我們有法律將任何人用人工智能做的大多數(shù)壞事定為犯罪。入侵五角大樓?那是一種犯罪。從銀行偷錢?那是一種犯罪。制造生化武器?那是一種犯罪。實(shí)施恐怖行為?那是一種犯罪。我們可以簡單地集中精力在力所能及的情況下防止這些罪行,在我們不能的情況下起訴它們。我們甚至不需要新的法律——我不知道有哪一個(gè)已經(jīng)被提議的 AI 的實(shí)際不良使用還不是非法的。如果發(fā)現(xiàn)新的不良用途,我們將禁止該用途。

但是你會(huì)注意到我在那里漏掉了什么——我說我們應(yīng)該首先關(guān)注在人工智能協(xié)助的犯罪發(fā)生之前預(yù)防它們——這樣的預(yù)防難道不意味著禁止人工智能嗎?好吧,還有另一種方法可以防止此類行為,那就是使用 AI 作為防御工具,使人工智能在有壞目標(biāo)的壞人手中變得危險(xiǎn)的能力,在有好目標(biāo)的好人手中變得強(qiáng)大——特別是那些工作是防止壞事發(fā)生的好人。

例如,如果你擔(dān)心 AI 會(huì)生成假人和假視頻,那么答案就是構(gòu)建新系統(tǒng),讓人們可以通過加密簽名驗(yàn)證自己和真實(shí)內(nèi)容。在 AI 出現(xiàn)之前就已經(jīng)存在了真實(shí)和虛假內(nèi)容的數(shù)字創(chuàng)建和更改;答案不是禁止文字處理器和 Photoshop——或人工智能——而是使用技術(shù)來構(gòu)建一個(gè)真正解決問題的系統(tǒng)。

因此,其次,讓我們做出重大努力,將 AI 用于好的、合法的防御目的。讓我們將 AI 用于網(wǎng)絡(luò)防御、生物防御、追捕恐怖分子,以及我們?yōu)楸Wo(hù)我們自己、我們的社區(qū)和我們國家的安全所做的一切。

當(dāng)然,政府內(nèi)外已經(jīng)有很多聰明人在做這件事——但如果我們把目前專注于禁止 AI 的徒勞前景的所有努力和腦力用于使用 AI 來防止壞人做壞事,我認(rèn)為毫無疑問,一個(gè)充滿人工智能的世界將比我們今天生活的世界安全得多。

......

為了抵消壞人用人工智能做壞事的風(fēng)險(xiǎn),政府與私營部門合作應(yīng)積極參與每個(gè)潛在風(fēng)險(xiǎn)領(lǐng)域,以利用人工智能最大限度地提高社會(huì)的防御能力。這不應(yīng)僅限于人工智能帶來的風(fēng)險(xiǎn),還應(yīng)包括營養(yǎng)不良、疾病和氣候等更普遍的問題。人工智能可以成為解決問題的強(qiáng)大工具,我們應(yīng)該擁抱它。

......

這就是我們使用 AI 拯救世界的方式。

是時(shí)候建設(shè)了。It’s time to build.

我以兩個(gè)簡單的陳述結(jié)束本文。

人工智能的發(fā)展始于 1940 年代,與計(jì)算機(jī)的發(fā)明同時(shí)進(jìn)行。第一篇關(guān)于神經(jīng)網(wǎng)絡(luò)的科學(xué)論文——我們今天擁有的人工智能的架構(gòu)——1943年發(fā)表。在過去的 80 年里,整整幾代人工智能科學(xué)家出生、上學(xué)、工作,在許多情況下都沒有看到我們現(xiàn)在得到的回報(bào)就去世了。他們都是傳奇,每一個(gè)人。

今天,越來越多的工程師——其中許多人很年輕,可能有祖父母甚至曾祖父母參與了 AI 背后思想的創(chuàng)造——正在努力使 AI 成為現(xiàn)實(shí),反對(duì)散布恐懼和末日論的墻試圖把他們描繪成魯莽的惡棍。我不相信他們是魯莽的或惡棍。他們都是英雄,每一個(gè)人。我和我的公司很高興能盡可能多地支持他們,我們將 100% 支持他們和他們的工作。

*Tech商業(yè)(ID:InnoBusiness)

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。