正在閱讀:

未來的人工智能,人類“監(jiān)管”得住嗎?

掃一掃下載界面新聞APP

未來的人工智能,人類“監(jiān)管”得住嗎?

人類的判斷總會受限,真理只能在不斷延續(xù)中顯現(xiàn)。

圖片來源:界面新聞 匡達

文|中外管理傳媒 王爽

前不久,歐洲議會、歐盟成員國和歐盟委員會三方就《人工智能法案》達成協(xié)議,這被認為是全球首個全面監(jiān)管人工智能(AI)的法案。在經(jīng)過長達36個小時的馬拉松式談判后,歐洲議會、歐盟成員國和歐盟委員會于12月8日晚就《人工智能法案》達成協(xié)議。

根據(jù)歐洲議會的聲明,達成的協(xié)議包括禁止幾種AI應(yīng)用程序,例如無目標地抓取圖像以創(chuàng)建面部識別庫,并為立法者認定的高風(fēng)險系統(tǒng)制定規(guī)則。而未能遵守新法規(guī)的公司將面臨最高相當于全球營業(yè)額7%的罰款。

人類對人工智能的擔憂,似乎從它誕生之日起就存在。此前,人工智能領(lǐng)域的全球領(lǐng)導(dǎo)者OpenAI突發(fā)的管理層震動,正是這些離技術(shù)最近的人,對技術(shù)發(fā)展的擔憂。人工智能是否應(yīng)該蒙眼狂奔,還是以安全性為首要考量放慢速度?在兩種觀點的沖突之下,OpenAI此前上演了一場精彩的“宮斗大戲”。簡單回顧一下事情經(jīng)過:

11月17日,OpenAI聯(lián)合創(chuàng)始人兼CEO山姆·奧特曼突然被公司董事會宣布“畢業(yè)”。

11月19日,奧特曼“第一次也是最后一次”,戴著訪客牌到OpenAI與董事會洽談。但是董事會未能同意他復(fù)職的擬議條款,而是找到了一位臨時CEO。

11月20日,微軟CEO薩蒂亞·納德拉宣布,剛剛被解雇的奧特曼將加入微軟,共同服務(wù)一個新的先進人工智能研究團隊,微軟為他們提供成功所需的資源。

11月21日,Open AI發(fā)布聲明,奧特曼回歸OpenAI。

當時,關(guān)于OpenAI 的大戲一波未平一波又起,反轉(zhuǎn)反轉(zhuǎn)再反轉(zhuǎn)。隨著奧特曼的回歸,OpenAI跌宕起伏的劇情看似已經(jīng)大結(jié)局,但事實上還留下諸多的未知數(shù)。為何董事會堅持要讓奧特曼離開?董事會到底有什么證據(jù)或是理由,不顧九成內(nèi)部員工抗議強行辭退奧特曼,至今其中的緣由都沒有被公開。

站在十字路口,在理想與現(xiàn)實的角逐中,人工智能技術(shù)會走向何方?

安全向左,技術(shù)向右

根據(jù)此前路透社發(fā)布的消息,奧特曼的辭退鬧劇很可能源于一封來自O(shè)penAI員工的匿名信件。信中提到,OpenAI最新研發(fā)的新型人工智能大模型“Q-star”取得了突破性進展,人工智能擁有了解決數(shù)學(xué)問題的能力。研究人員認為,當人工智能掌握了只有唯一正確答案的數(shù)學(xué)運算,這就意味著人工智能將具備更接近人類的推理能力。與只能執(zhí)行有限運算的計算器不同,人工智能如果能夠進行泛化學(xué)習(xí)和理解,就可以獨自解答完全陌生的數(shù)學(xué)題目。就像人類通過學(xué)習(xí)數(shù)學(xué)課本上的例題之后,會自己做題一樣。這意味著,人工智能可以在最具經(jīng)濟價值的任務(wù)中超越人類的自主系統(tǒng),而這可能對人類產(chǎn)生威脅。

這封警告信,或許正是董事會嚴厲指責(zé)“奧特曼對董事會不坦誠”,并解雇奧特曼的導(dǎo)火線之一。

這次解雇風(fēng)波的發(fā)起人,OpenAI首席科學(xué)家伊利亞·薩克斯維爾,是OpenAI董事會中絕對意義上的技術(shù)擔當。

在一部紀錄片中,面對鏡頭,伊利亞對人工智能技術(shù)的發(fā)展無比樂觀,認為OpenAI正在創(chuàng)造的是一個具有獨立資格、完全自主的存在。但是在片子結(jié)尾,他不無擔憂地說:“未來對人工智能而言是美好的,如果對人類來說也是如此就好了。”出于審慎態(tài)度,此前伊利亞還專門成立了一個團隊研究,如何防止人工智能系統(tǒng)運行異常。

從ChatGPT橫空出世,到被普遍認為相當無敵的GPT4問世,大模型的進步肉眼可見,此前OpenAI更是高調(diào)地推進技術(shù)落地。但奧特曼越亢奮,伊利亞就越焦慮,對他來說OpenAI的激進做法,似乎離最初用人工智能造福人類的信仰越來越遠。

條條大路通羅馬,但通往人工智能造福人類的路到底選哪條?奧特曼選擇全速前進,而伊利亞顯然更加關(guān)注人工智能的安全性。激進的技術(shù)路線是否會有隱患?這是伊利亞的擔憂,也是他要“趕”奧特曼離開的底層動機。

獨特架構(gòu)能“管”住OpenAI?

2014年,谷歌以6億美元的價格收購了當時業(yè)內(nèi)最頂尖的人工智能研究機構(gòu)DeepMind,之后推出了驚艷世人的AlphaGo。對此,一些人工智能領(lǐng)域中堅人士看到了人工智能的潛力和威脅,他們害怕谷歌會成為壟斷人工智能的權(quán)力霸主。其中6位來自硅谷的科技夢想家聚在一起,決定成立一家不受任何公司、任何資本、任何人控制的人工智能實驗室,希望探索出一條以安全方式構(gòu)建人工智能的正確路徑。

2015年底,非營利組織OpenAI正式成立。其目標明確而又雄心勃勃:開發(fā)能夠造福全人類的“通用人工智能”。初期,OpenAI完全依靠捐贈維持組織運轉(zhuǎn),并承諾向公眾開放其專利和研究。這是OpenAI的起點與初心,可是這個非常理想主義、非?!盀跬邪睢钡慕M織,很快遇到了“經(jīng)濟危機”。

2018年,OpenAI的創(chuàng)始人之一和“大金主”埃隆·馬斯克宣布退出董事會。在馬斯克離開之后,他尚未兌現(xiàn)的捐贈,將OpenAI一下推到了一個非常不利的境地。

彼時OpenAI的艱難處境讓奧特曼對非營利組織的模式產(chǎn)生了動搖,轉(zhuǎn)而探索更現(xiàn)實的商業(yè)路線。

于是,一個全新的公司架構(gòu)出現(xiàn)了:

在母公司OpenAI Inc.的非營利主體之下,創(chuàng)建一個限制性盈利實體OpenAI LP。OpenAI Inc.的控制權(quán)歸屬于OpenAI非營利組織的董事會,董事會作為OpenAI LP的一般合伙人,全權(quán)管理著OpenAI LP,負責(zé)引導(dǎo)OpenAI LP的運營。在有限合伙制度下,一般合伙人具有對企業(yè)的完全管理和控制權(quán),同時也需要承擔無限責(zé)任。

同時,OpenAI LP的有限合伙人群體中,包含了OpenAI LP的員工、部分董事會成員,以及Reid Hoffman慈善基金、Khosla Ventures等其他投資者。理論上,他們的責(zé)任僅限于其投資額。有限合伙人可以獲得分紅,但從OpenAI LP所得的最高收益被限制在他們投資額的100倍。

此后,公司又在OpenAI LP之下又設(shè)立了OpenAI Global,OpenAI LP和大投資方微軟分享股權(quán),并以分紅的形式,分享OpenAI的商業(yè)成果。其中,OpenAI LP占股51%,微軟占49%。

在這套架構(gòu)里,擁有和控制是兩個完全不同的概念。不論是非營利組織資產(chǎn)平臺還是限制性營利公司,他們的決策權(quán)都掌握在一個非營利組織全資擁有并控制的管理實體手中。而這個管理實體的權(quán)利來源還是來自于非營利組織的董事會。其實簡單來說就是,拿錢的不能投票,投票的不能拿錢。所以,最大的出資方微軟,愣是被排除在了OpenAI的決策層之外。

在這個“權(quán)”“利”分家的組織架構(gòu)下,OpenAI LP能夠放開手腳“搞錢”,微軟等投資方能夠從投資中獲得收益,董事會也能獨立于資方,保持對整個公司掌控,保證大船不偏航。站在當時的角度看,這確實是一個巧妙符合了存在主義和理想主義的完美方案,避免公司受到資本的侵蝕。

可是當時堪稱“完美”的組織架構(gòu),為OpenAI的風(fēng)波埋下了伏筆。它獨特的架構(gòu)設(shè)計不僅僅是挑戰(zhàn)人性,甚至可以說是反人性的。在OpenAI的邏輯下,公司有掙錢的能力卻不好好掙錢,僅靠理想信念支撐、用愛發(fā)電,這樣的技術(shù)“圣徒”有多少人?這樣的“朝圣路”又能走多遠?

從某種程度上來說,OpenAI的風(fēng)波是其發(fā)展史上難以略過的節(jié)點性時刻,它充分表明:烏托邦里,容不下“世俗”的欲望?;蛘哒f,“鈔能力”足以撼動理想。

在輿論場中,不少人在情感上站在了伊利亞一邊,認為OpenAI風(fēng)波的背后是科學(xué)家創(chuàng)始人奮力抵抗的悲歌。這場風(fēng)波被遐想為,資本家只顧著逐利,科學(xué)家則心存良知。但不能忘記的是,OpenAI要實現(xiàn)理想主義,前提條件是要活著不斷探索。而開發(fā)人工智能本身就是一件耗錢、耗資源、耗算力又耗時間的事情,離開資本支持,OpenAI根本玩不轉(zhuǎn)。在奧特曼精心設(shè)計的獨裁帝國里,資本沒有舉手議政的權(quán)利,但有用腳投票的自由。名義上OpenAI所有決定都必須經(jīng)過董事會點頭,但不持股的董事會面對花了真金白銀支撐OpenAI的資本,話語權(quán)其實十分有限。

其實,從資本的角度來看,全力加速技術(shù)的發(fā)展和商業(yè)化無可厚非。同樣,從安全角度考量,審慎地進行技術(shù)推進更沒有錯。OpenAI的這場風(fēng)波,與其說是理想與現(xiàn)實的沖突,不如說是舊制度與新形勢的矛盾。此前,面對生存危機,奧特曼激進的改革措施,不僅被允許甚至被董事會鼓勵。但如今已生存無憂的OpenAI,還需要冒著危害人類安全的風(fēng)險繼續(xù)冒進嗎?還要不要堅持創(chuàng)業(yè)初期的“戰(zhàn)時體制”?這大概才是出現(xiàn)OpenAI風(fēng)波的癥結(jié)點。

而要不要冒著風(fēng)險快速發(fā)展,也是如今越來越多人對人工智能的質(zhì)疑。甚至,以審慎的態(tài)度發(fā)展人工智能成為越來越多人的共識。

讓技術(shù)的子彈飛一會兒

在人工智能的研發(fā)初期,你很難找到反對發(fā)展這項技術(shù)的論據(jù),但隨著人工智能的演進,它的陰暗面逐漸顯現(xiàn)。自然語言處理和機器學(xué)習(xí)被用于社交媒體、搜索和推薦引擎,擴大了信息的兩極分化、偏見和錯誤。

甚至,“速度與安全”并不是唯一讓人工智能領(lǐng)域的專家們感到威脅的問題。更多的人在擔憂另一件更棘手的事情:人工智能正在操縱人類,人工智能將發(fā)揮更難以想象的巨大力量來操縱人類的無意識。

OpenAI風(fēng)波之前,伊利亞和相關(guān)負責(zé)人共同領(lǐng)導(dǎo)了一個“超級對齊”研究項目,該項目致力于解決一個簡單但極其復(fù)雜的問題:“如何確保人工智能系統(tǒng)比人類更聰明地遵循人類的目標?”

但問題是,人工智能該與什么樣的人類目標保持一致?OpenAI的一系列風(fēng)波充分證明了,即使是極少數(shù)OpenAI領(lǐng)導(dǎo)者之間的目標也是不可能一致的。

面對注定相互沖突的目標,放緩人工智能的研究,讓技術(shù)的子彈飛一會兒,或許是一種解題思路。

在超越人類智慧的人工智能這條“惡龍”真正出籠之前,每個人都認為自己有資格駕馭它。但無論是“奧特曼”還是“伊利亞”,誰都無法篤定地說,自己選擇了正確的道路。畢竟,“人類的判斷總會受限,真理只能在不斷延續(xù)中顯現(xiàn)?!?/p>

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

未來的人工智能,人類“監(jiān)管”得住嗎?

人類的判斷總會受限,真理只能在不斷延續(xù)中顯現(xiàn)。

圖片來源:界面新聞 匡達

文|中外管理傳媒 王爽

前不久,歐洲議會、歐盟成員國和歐盟委員會三方就《人工智能法案》達成協(xié)議,這被認為是全球首個全面監(jiān)管人工智能(AI)的法案。在經(jīng)過長達36個小時的馬拉松式談判后,歐洲議會、歐盟成員國和歐盟委員會于12月8日晚就《人工智能法案》達成協(xié)議。

根據(jù)歐洲議會的聲明,達成的協(xié)議包括禁止幾種AI應(yīng)用程序,例如無目標地抓取圖像以創(chuàng)建面部識別庫,并為立法者認定的高風(fēng)險系統(tǒng)制定規(guī)則。而未能遵守新法規(guī)的公司將面臨最高相當于全球營業(yè)額7%的罰款。

人類對人工智能的擔憂,似乎從它誕生之日起就存在。此前,人工智能領(lǐng)域的全球領(lǐng)導(dǎo)者OpenAI突發(fā)的管理層震動,正是這些離技術(shù)最近的人,對技術(shù)發(fā)展的擔憂。人工智能是否應(yīng)該蒙眼狂奔,還是以安全性為首要考量放慢速度?在兩種觀點的沖突之下,OpenAI此前上演了一場精彩的“宮斗大戲”。簡單回顧一下事情經(jīng)過:

11月17日,OpenAI聯(lián)合創(chuàng)始人兼CEO山姆·奧特曼突然被公司董事會宣布“畢業(yè)”。

11月19日,奧特曼“第一次也是最后一次”,戴著訪客牌到OpenAI與董事會洽談。但是董事會未能同意他復(fù)職的擬議條款,而是找到了一位臨時CEO。

11月20日,微軟CEO薩蒂亞·納德拉宣布,剛剛被解雇的奧特曼將加入微軟,共同服務(wù)一個新的先進人工智能研究團隊,微軟為他們提供成功所需的資源。

11月21日,Open AI發(fā)布聲明,奧特曼回歸OpenAI。

當時,關(guān)于OpenAI 的大戲一波未平一波又起,反轉(zhuǎn)反轉(zhuǎn)再反轉(zhuǎn)。隨著奧特曼的回歸,OpenAI跌宕起伏的劇情看似已經(jīng)大結(jié)局,但事實上還留下諸多的未知數(shù)。為何董事會堅持要讓奧特曼離開?董事會到底有什么證據(jù)或是理由,不顧九成內(nèi)部員工抗議強行辭退奧特曼,至今其中的緣由都沒有被公開。

站在十字路口,在理想與現(xiàn)實的角逐中,人工智能技術(shù)會走向何方?

安全向左,技術(shù)向右

根據(jù)此前路透社發(fā)布的消息,奧特曼的辭退鬧劇很可能源于一封來自O(shè)penAI員工的匿名信件。信中提到,OpenAI最新研發(fā)的新型人工智能大模型“Q-star”取得了突破性進展,人工智能擁有了解決數(shù)學(xué)問題的能力。研究人員認為,當人工智能掌握了只有唯一正確答案的數(shù)學(xué)運算,這就意味著人工智能將具備更接近人類的推理能力。與只能執(zhí)行有限運算的計算器不同,人工智能如果能夠進行泛化學(xué)習(xí)和理解,就可以獨自解答完全陌生的數(shù)學(xué)題目。就像人類通過學(xué)習(xí)數(shù)學(xué)課本上的例題之后,會自己做題一樣。這意味著,人工智能可以在最具經(jīng)濟價值的任務(wù)中超越人類的自主系統(tǒng),而這可能對人類產(chǎn)生威脅。

這封警告信,或許正是董事會嚴厲指責(zé)“奧特曼對董事會不坦誠”,并解雇奧特曼的導(dǎo)火線之一。

這次解雇風(fēng)波的發(fā)起人,OpenAI首席科學(xué)家伊利亞·薩克斯維爾,是OpenAI董事會中絕對意義上的技術(shù)擔當。

在一部紀錄片中,面對鏡頭,伊利亞對人工智能技術(shù)的發(fā)展無比樂觀,認為OpenAI正在創(chuàng)造的是一個具有獨立資格、完全自主的存在。但是在片子結(jié)尾,他不無擔憂地說:“未來對人工智能而言是美好的,如果對人類來說也是如此就好了?!背鲇趯徤鲬B(tài)度,此前伊利亞還專門成立了一個團隊研究,如何防止人工智能系統(tǒng)運行異常。

從ChatGPT橫空出世,到被普遍認為相當無敵的GPT4問世,大模型的進步肉眼可見,此前OpenAI更是高調(diào)地推進技術(shù)落地。但奧特曼越亢奮,伊利亞就越焦慮,對他來說OpenAI的激進做法,似乎離最初用人工智能造福人類的信仰越來越遠。

條條大路通羅馬,但通往人工智能造福人類的路到底選哪條?奧特曼選擇全速前進,而伊利亞顯然更加關(guān)注人工智能的安全性。激進的技術(shù)路線是否會有隱患?這是伊利亞的擔憂,也是他要“趕”奧特曼離開的底層動機。

獨特架構(gòu)能“管”住OpenAI?

2014年,谷歌以6億美元的價格收購了當時業(yè)內(nèi)最頂尖的人工智能研究機構(gòu)DeepMind,之后推出了驚艷世人的AlphaGo。對此,一些人工智能領(lǐng)域中堅人士看到了人工智能的潛力和威脅,他們害怕谷歌會成為壟斷人工智能的權(quán)力霸主。其中6位來自硅谷的科技夢想家聚在一起,決定成立一家不受任何公司、任何資本、任何人控制的人工智能實驗室,希望探索出一條以安全方式構(gòu)建人工智能的正確路徑。

2015年底,非營利組織OpenAI正式成立。其目標明確而又雄心勃勃:開發(fā)能夠造福全人類的“通用人工智能”。初期,OpenAI完全依靠捐贈維持組織運轉(zhuǎn),并承諾向公眾開放其專利和研究。這是OpenAI的起點與初心,可是這個非常理想主義、非?!盀跬邪睢钡慕M織,很快遇到了“經(jīng)濟危機”。

2018年,OpenAI的創(chuàng)始人之一和“大金主”埃隆·馬斯克宣布退出董事會。在馬斯克離開之后,他尚未兌現(xiàn)的捐贈,將OpenAI一下推到了一個非常不利的境地。

彼時OpenAI的艱難處境讓奧特曼對非營利組織的模式產(chǎn)生了動搖,轉(zhuǎn)而探索更現(xiàn)實的商業(yè)路線。

于是,一個全新的公司架構(gòu)出現(xiàn)了:

在母公司OpenAI Inc.的非營利主體之下,創(chuàng)建一個限制性盈利實體OpenAI LP。OpenAI Inc.的控制權(quán)歸屬于OpenAI非營利組織的董事會,董事會作為OpenAI LP的一般合伙人,全權(quán)管理著OpenAI LP,負責(zé)引導(dǎo)OpenAI LP的運營。在有限合伙制度下,一般合伙人具有對企業(yè)的完全管理和控制權(quán),同時也需要承擔無限責(zé)任。

同時,OpenAI LP的有限合伙人群體中,包含了OpenAI LP的員工、部分董事會成員,以及Reid Hoffman慈善基金、Khosla Ventures等其他投資者。理論上,他們的責(zé)任僅限于其投資額。有限合伙人可以獲得分紅,但從OpenAI LP所得的最高收益被限制在他們投資額的100倍。

此后,公司又在OpenAI LP之下又設(shè)立了OpenAI Global,OpenAI LP和大投資方微軟分享股權(quán),并以分紅的形式,分享OpenAI的商業(yè)成果。其中,OpenAI LP占股51%,微軟占49%。

在這套架構(gòu)里,擁有和控制是兩個完全不同的概念。不論是非營利組織資產(chǎn)平臺還是限制性營利公司,他們的決策權(quán)都掌握在一個非營利組織全資擁有并控制的管理實體手中。而這個管理實體的權(quán)利來源還是來自于非營利組織的董事會。其實簡單來說就是,拿錢的不能投票,投票的不能拿錢。所以,最大的出資方微軟,愣是被排除在了OpenAI的決策層之外。

在這個“權(quán)”“利”分家的組織架構(gòu)下,OpenAI LP能夠放開手腳“搞錢”,微軟等投資方能夠從投資中獲得收益,董事會也能獨立于資方,保持對整個公司掌控,保證大船不偏航。站在當時的角度看,這確實是一個巧妙符合了存在主義和理想主義的完美方案,避免公司受到資本的侵蝕。

可是當時堪稱“完美”的組織架構(gòu),為OpenAI的風(fēng)波埋下了伏筆。它獨特的架構(gòu)設(shè)計不僅僅是挑戰(zhàn)人性,甚至可以說是反人性的。在OpenAI的邏輯下,公司有掙錢的能力卻不好好掙錢,僅靠理想信念支撐、用愛發(fā)電,這樣的技術(shù)“圣徒”有多少人?這樣的“朝圣路”又能走多遠?

從某種程度上來說,OpenAI的風(fēng)波是其發(fā)展史上難以略過的節(jié)點性時刻,它充分表明:烏托邦里,容不下“世俗”的欲望?;蛘哒f,“鈔能力”足以撼動理想。

在輿論場中,不少人在情感上站在了伊利亞一邊,認為OpenAI風(fēng)波的背后是科學(xué)家創(chuàng)始人奮力抵抗的悲歌。這場風(fēng)波被遐想為,資本家只顧著逐利,科學(xué)家則心存良知。但不能忘記的是,OpenAI要實現(xiàn)理想主義,前提條件是要活著不斷探索。而開發(fā)人工智能本身就是一件耗錢、耗資源、耗算力又耗時間的事情,離開資本支持,OpenAI根本玩不轉(zhuǎn)。在奧特曼精心設(shè)計的獨裁帝國里,資本沒有舉手議政的權(quán)利,但有用腳投票的自由。名義上OpenAI所有決定都必須經(jīng)過董事會點頭,但不持股的董事會面對花了真金白銀支撐OpenAI的資本,話語權(quán)其實十分有限。

其實,從資本的角度來看,全力加速技術(shù)的發(fā)展和商業(yè)化無可厚非。同樣,從安全角度考量,審慎地進行技術(shù)推進更沒有錯。OpenAI的這場風(fēng)波,與其說是理想與現(xiàn)實的沖突,不如說是舊制度與新形勢的矛盾。此前,面對生存危機,奧特曼激進的改革措施,不僅被允許甚至被董事會鼓勵。但如今已生存無憂的OpenAI,還需要冒著危害人類安全的風(fēng)險繼續(xù)冒進嗎?還要不要堅持創(chuàng)業(yè)初期的“戰(zhàn)時體制”?這大概才是出現(xiàn)OpenAI風(fēng)波的癥結(jié)點。

而要不要冒著風(fēng)險快速發(fā)展,也是如今越來越多人對人工智能的質(zhì)疑。甚至,以審慎的態(tài)度發(fā)展人工智能成為越來越多人的共識。

讓技術(shù)的子彈飛一會兒

在人工智能的研發(fā)初期,你很難找到反對發(fā)展這項技術(shù)的論據(jù),但隨著人工智能的演進,它的陰暗面逐漸顯現(xiàn)。自然語言處理和機器學(xué)習(xí)被用于社交媒體、搜索和推薦引擎,擴大了信息的兩極分化、偏見和錯誤。

甚至,“速度與安全”并不是唯一讓人工智能領(lǐng)域的專家們感到威脅的問題。更多的人在擔憂另一件更棘手的事情:人工智能正在操縱人類,人工智能將發(fā)揮更難以想象的巨大力量來操縱人類的無意識。

OpenAI風(fēng)波之前,伊利亞和相關(guān)負責(zé)人共同領(lǐng)導(dǎo)了一個“超級對齊”研究項目,該項目致力于解決一個簡單但極其復(fù)雜的問題:“如何確保人工智能系統(tǒng)比人類更聰明地遵循人類的目標?”

但問題是,人工智能該與什么樣的人類目標保持一致?OpenAI的一系列風(fēng)波充分證明了,即使是極少數(shù)OpenAI領(lǐng)導(dǎo)者之間的目標也是不可能一致的。

面對注定相互沖突的目標,放緩人工智能的研究,讓技術(shù)的子彈飛一會兒,或許是一種解題思路。

在超越人類智慧的人工智能這條“惡龍”真正出籠之前,每個人都認為自己有資格駕馭它。但無論是“奧特曼”還是“伊利亞”,誰都無法篤定地說,自己選擇了正確的道路。畢竟,“人類的判斷總會受限,真理只能在不斷延續(xù)中顯現(xiàn)?!?/p>

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。