正在閱讀:

叫停GPT-5?馬斯克、蘋果聯合創(chuàng)始人、圖靈獎得主聯名上書:至少停6個月

掃一掃下載界面新聞APP

叫停GPT-5?馬斯克、蘋果聯合創(chuàng)始人、圖靈獎得主聯名上書:至少停6個月

AI大佬們發(fā)公開信呼吁停止訓練比GPT-4更強的模型。

界面新聞|范劍磊

編譯 | 智東西 吳菲凝

編輯 | 李水青

智東西3月29日消息,在未來生命研究所(Future of Life Institute)官網上,包括圖靈獎得主約書亞·本吉奧(Yoshua Bengio)、特斯拉CEO埃隆·馬斯克(Elon Musk)、蘋果公司聯合創(chuàng)始人史蒂夫 沃茲尼亞克(Steve Wozniak)、DeepMind高級研究科學家扎卡里·肯頓(Zachary Kenton)等在內的數千名AI領域企業(yè)家、學者、高管發(fā)出了一封題為《暫停大型人工智能研究》公開信。

這些AI專家們在信中強烈呼吁:所有AI研究室立刻暫停訓練比GPT-4更加強大的AI系統(tǒng),為期至少6個月,并建議各大企業(yè)、機構共同開發(fā)一份適用于AI研發(fā)的安全協議,同時信中還提到各國政府應當在必要的時候介入其中。截至目前,已有1125人簽名支持這封公開信。

▲目前的簽名名單

專家們在信中指出,AI智能系統(tǒng)在和人類競爭的過程中可能會對社會和人類造成巨大風險。

這封信尖銳發(fā)出四大問:

1、我們是否應該讓機器用宣傳和不實之詞充斥我們的信息渠道?

2、我們是否應該使所有的工作都自動化?

3、我們是否應該發(fā)展可能超過并取代我們的非人類思維?

4、我們是否應該去冒失去對自身文明控制的風險?

專家們在信中補充道,全球的AI實驗室和該領域專家應該利用這次暫停研究的機會,共同制定和實施一套全人類共享的安全協議,用于未來更加先進的AI設計和開發(fā)。這些協議需要由外部專家進行嚴格的審計監(jiān)督,來確保整個系統(tǒng)經受得住質疑。

但此次暫停并不意味著未來完全停止繼續(xù)研發(fā)人工智能,只是讓產業(yè)暫時從激進的、危險的AI競賽中退一步,退到更具潛力的新興科技的蓄力準備當中。

OpenAI此前發(fā)布的GPT-4是人工智能領域發(fā)展歷程中的一大重要里程碑,專家認為,將在今年晚些時候發(fā)布的GPT-5將會在可靠性、創(chuàng)造性和對復雜任務的適應性上更上一層樓,可能帶來更多新功能的升級,比如根據用戶的特定需求和輸入變量量身定制,提供更加個性化的體驗;增強AI以更像人類的方式理解和響應自然語言的能力;通過提供相關信息和見解,幫助用戶做出明智的決策等。

GPT-5將會在各方面能力上遠超GPT-4,而這也是數千位AI專家們發(fā)起這封公開信的主要原因:進步伴隨著隱患。

以下為公開信全文內容:

正如廣泛的研究和頂級人工智能實驗室所表明的那樣,具有人類競爭智能思維的人工智能系統(tǒng)可能會對社會和人類構成深刻的風險。正如被廣泛認可的《阿西洛馬人工智能原則》中所說,高級人工智能可能代表著地球上生命歷史的深刻變化,應該以相應的謹慎態(tài)度和資源進行規(guī)劃和管理。不幸的是,這種級別的規(guī)劃和管理并沒有發(fā)生,盡管最近幾個月看到人工智能實驗室陷入了一場失控的競賽中,大家都在開發(fā)和部署越來越強大的數字思維,包括創(chuàng)造者在內的所有人都無法理解、預測甚至控制這些人工智能的繁衍。

當代人工智能系統(tǒng)在一些日常任務中已經可以與人類相匹敵。我們需要捫心自問:

我們是否應該讓機器用宣傳和謊言充斥在我們各種信息渠道?我們是否應該把所有的工作都自動化,包括那些給人帶來滿足感的工作?我們是否應該開發(fā)非人類的大腦,使其最終超過我們的數量,勝過我們的智慧,淘汰我們并取代我們?我們是否要冒著失去對我們文明控制的風險?

此類決策不得委托給未經選舉的技術領導者。這種信心必須有充分的理由,并隨著系統(tǒng)潛在影響的大小而增加。OpenAI最近關于通用人工智能的聲明指出,“在某些時候,在開始訓練未來系統(tǒng)之前,獲得獨立審查至關重要,而且必須限制用于創(chuàng)建新模型的計算增長率。我們無比同意這一觀點,而且現在是時候這樣做了?!?/p>

因此,我們呼吁所有人工智能實驗室立即暫停比GPT-4更強大的人工智能系統(tǒng)的訓練,為期至少6個月。這種暫停應該是公開的、可驗證的,并包括所有關鍵參與者都應該在列。如果這種暫停不能迅速實施,政府應該介入并制定暫停令。

人工智能實驗室和獨立專家應利用這次暫停期,共同制定和實施一套先進的人工智能設計和開發(fā)的共享安全協議,并由獨立的外部專家進行嚴格的審計和監(jiān)督。這些協議應該確保遵守它們的系統(tǒng)是安全的、無可置疑的。當然,這一行動并不意味著暫停人工智能的總體發(fā)展,只是從越來越大且不可預測的黑盒模型的危險競賽中退后一步。

人工智能的研究和開發(fā)應該重新聚焦于使當今強大的、最先進的系統(tǒng)更加準確、安全、可解釋、透明、穩(wěn)健、一致、值得信賴和忠誠。

同時,人工智能開發(fā)者必須與政策制定者合作,加快開發(fā)強大的人工智能治理系統(tǒng)的速度。至少應該包括以下措施:

1、設立專門針對人工智能的新的且有能力的監(jiān)管機構;

2、監(jiān)督和跟蹤高能力的人工智能系統(tǒng)和大型計算能力池;

3、確定AI內容出處和加上水印系統(tǒng),以幫助用戶區(qū)分真實和合成的內容,并跟蹤模型泄漏;

4、強大的審計和認證生態(tài)系統(tǒng);

5、對人工智能造成的傷害承擔責任;

6、為人工智能安全技術研究提供強大的公共資金;

7、各機構保證有充足的資源來應對人工智能可能導致的巨大經濟和政治破壞。

人類可以享受人工智能帶來的繁榮未來。在成功創(chuàng)造出強大的AI系統(tǒng)之后,我們現在可以享受一個“人工智能之夏”,設計這些系統(tǒng)以造福所有人,并為社會提供大量機會。讓我們享受一個漫長的人工智能夏季,而不是在毫無準備的情況下匆忙進入秋天。

結語:千人呼吁停訓GPT-5,AI負面影響引關注

GPT-4剛出世不久,GPT-5已在狂飆而來的路上,但隨之而來的是不斷加劇的AI焦慮和潛在隱患:本就搶手的勞動崗位被AI取代、工作機會更加稀缺,加劇了社會焦慮情緒的蔓延,以及AI換臉知名演員、AI生成低俗圖片等負面新聞不斷涌現,這些便利和智能伴隨而來的困擾和隱患已經對人們的日常生活產生了副作用。此次千名業(yè)內大佬叫停GPT-5的訓練意在及時剎車,讓愈演愈烈的AI競賽回到勻速發(fā)展的軌道。

但外媒The Verge看來,這封信不太可能對當前的人工智能研究環(huán)境產生任何影響,谷歌和微軟等科技公司都急于部署新產品,經常忽視以前公開宣稱的對安全和道德的擔憂。

來源:未來生命研究所官網

本文為轉載內容,授權事宜請聯系原著作權人。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

叫停GPT-5?馬斯克、蘋果聯合創(chuàng)始人、圖靈獎得主聯名上書:至少停6個月

AI大佬們發(fā)公開信呼吁停止訓練比GPT-4更強的模型。

界面新聞|范劍磊

編譯 | 智東西 吳菲凝

編輯 | 李水青

智東西3月29日消息,在未來生命研究所(Future of Life Institute)官網上,包括圖靈獎得主約書亞·本吉奧(Yoshua Bengio)、特斯拉CEO埃隆·馬斯克(Elon Musk)、蘋果公司聯合創(chuàng)始人史蒂夫 沃茲尼亞克(Steve Wozniak)、DeepMind高級研究科學家扎卡里·肯頓(Zachary Kenton)等在內的數千名AI領域企業(yè)家、學者、高管發(fā)出了一封題為《暫停大型人工智能研究》公開信。

這些AI專家們在信中強烈呼吁:所有AI研究室立刻暫停訓練比GPT-4更加強大的AI系統(tǒng),為期至少6個月,并建議各大企業(yè)、機構共同開發(fā)一份適用于AI研發(fā)的安全協議,同時信中還提到各國政府應當在必要的時候介入其中。截至目前,已有1125人簽名支持這封公開信。

▲目前的簽名名單

專家們在信中指出,AI智能系統(tǒng)在和人類競爭的過程中可能會對社會和人類造成巨大風險。

這封信尖銳發(fā)出四大問:

1、我們是否應該讓機器用宣傳和不實之詞充斥我們的信息渠道?

2、我們是否應該使所有的工作都自動化?

3、我們是否應該發(fā)展可能超過并取代我們的非人類思維?

4、我們是否應該去冒失去對自身文明控制的風險?

專家們在信中補充道,全球的AI實驗室和該領域專家應該利用這次暫停研究的機會,共同制定和實施一套全人類共享的安全協議,用于未來更加先進的AI設計和開發(fā)。這些協議需要由外部專家進行嚴格的審計監(jiān)督,來確保整個系統(tǒng)經受得住質疑。

但此次暫停并不意味著未來完全停止繼續(xù)研發(fā)人工智能,只是讓產業(yè)暫時從激進的、危險的AI競賽中退一步,退到更具潛力的新興科技的蓄力準備當中。

OpenAI此前發(fā)布的GPT-4是人工智能領域發(fā)展歷程中的一大重要里程碑,專家認為,將在今年晚些時候發(fā)布的GPT-5將會在可靠性、創(chuàng)造性和對復雜任務的適應性上更上一層樓,可能帶來更多新功能的升級,比如根據用戶的特定需求和輸入變量量身定制,提供更加個性化的體驗;增強AI以更像人類的方式理解和響應自然語言的能力;通過提供相關信息和見解,幫助用戶做出明智的決策等。

GPT-5將會在各方面能力上遠超GPT-4,而這也是數千位AI專家們發(fā)起這封公開信的主要原因:進步伴隨著隱患。

以下為公開信全文內容:

正如廣泛的研究和頂級人工智能實驗室所表明的那樣,具有人類競爭智能思維的人工智能系統(tǒng)可能會對社會和人類構成深刻的風險。正如被廣泛認可的《阿西洛馬人工智能原則》中所說,高級人工智能可能代表著地球上生命歷史的深刻變化,應該以相應的謹慎態(tài)度和資源進行規(guī)劃和管理。不幸的是,這種級別的規(guī)劃和管理并沒有發(fā)生,盡管最近幾個月看到人工智能實驗室陷入了一場失控的競賽中,大家都在開發(fā)和部署越來越強大的數字思維,包括創(chuàng)造者在內的所有人都無法理解、預測甚至控制這些人工智能的繁衍。

當代人工智能系統(tǒng)在一些日常任務中已經可以與人類相匹敵。我們需要捫心自問:

我們是否應該讓機器用宣傳和謊言充斥在我們各種信息渠道?我們是否應該把所有的工作都自動化,包括那些給人帶來滿足感的工作?我們是否應該開發(fā)非人類的大腦,使其最終超過我們的數量,勝過我們的智慧,淘汰我們并取代我們?我們是否要冒著失去對我們文明控制的風險?

此類決策不得委托給未經選舉的技術領導者。這種信心必須有充分的理由,并隨著系統(tǒng)潛在影響的大小而增加。OpenAI最近關于通用人工智能的聲明指出,“在某些時候,在開始訓練未來系統(tǒng)之前,獲得獨立審查至關重要,而且必須限制用于創(chuàng)建新模型的計算增長率。我們無比同意這一觀點,而且現在是時候這樣做了?!?/p>

因此,我們呼吁所有人工智能實驗室立即暫停比GPT-4更強大的人工智能系統(tǒng)的訓練,為期至少6個月。這種暫停應該是公開的、可驗證的,并包括所有關鍵參與者都應該在列。如果這種暫停不能迅速實施,政府應該介入并制定暫停令。

人工智能實驗室和獨立專家應利用這次暫停期,共同制定和實施一套先進的人工智能設計和開發(fā)的共享安全協議,并由獨立的外部專家進行嚴格的審計和監(jiān)督。這些協議應該確保遵守它們的系統(tǒng)是安全的、無可置疑的。當然,這一行動并不意味著暫停人工智能的總體發(fā)展,只是從越來越大且不可預測的黑盒模型的危險競賽中退后一步。

人工智能的研究和開發(fā)應該重新聚焦于使當今強大的、最先進的系統(tǒng)更加準確、安全、可解釋、透明、穩(wěn)健、一致、值得信賴和忠誠。

同時,人工智能開發(fā)者必須與政策制定者合作,加快開發(fā)強大的人工智能治理系統(tǒng)的速度。至少應該包括以下措施:

1、設立專門針對人工智能的新的且有能力的監(jiān)管機構;

2、監(jiān)督和跟蹤高能力的人工智能系統(tǒng)和大型計算能力池;

3、確定AI內容出處和加上水印系統(tǒng),以幫助用戶區(qū)分真實和合成的內容,并跟蹤模型泄漏;

4、強大的審計和認證生態(tài)系統(tǒng);

5、對人工智能造成的傷害承擔責任;

6、為人工智能安全技術研究提供強大的公共資金;

7、各機構保證有充足的資源來應對人工智能可能導致的巨大經濟和政治破壞。

人類可以享受人工智能帶來的繁榮未來。在成功創(chuàng)造出強大的AI系統(tǒng)之后,我們現在可以享受一個“人工智能之夏”,設計這些系統(tǒng)以造福所有人,并為社會提供大量機會。讓我們享受一個漫長的人工智能夏季,而不是在毫無準備的情況下匆忙進入秋天。

結語:千人呼吁停訓GPT-5,AI負面影響引關注

GPT-4剛出世不久,GPT-5已在狂飆而來的路上,但隨之而來的是不斷加劇的AI焦慮和潛在隱患:本就搶手的勞動崗位被AI取代、工作機會更加稀缺,加劇了社會焦慮情緒的蔓延,以及AI換臉知名演員、AI生成低俗圖片等負面新聞不斷涌現,這些便利和智能伴隨而來的困擾和隱患已經對人們的日常生活產生了副作用。此次千名業(yè)內大佬叫停GPT-5的訓練意在及時剎車,讓愈演愈烈的AI競賽回到勻速發(fā)展的軌道。

但外媒The Verge看來,這封信不太可能對當前的人工智能研究環(huán)境產生任何影響,谷歌和微軟等科技公司都急于部署新產品,經常忽視以前公開宣稱的對安全和道德的擔憂。

來源:未來生命研究所官網

本文為轉載內容,授權事宜請聯系原著作權人。