正在閱讀:

AI是否能滅絕人類:讓圖靈三巨頭決裂的百萬問題

掃一掃下載界面新聞APP

AI是否能滅絕人類:讓圖靈三巨頭決裂的百萬問題

被AI分裂的硅谷。

圖片:界面新聞 匡達

文|硅兔賽跑  Lexie

編輯|Lu

近年來,各種反烏托邦式英美劇大火,而人工智能頻繁成為了其中的重要話題,比如《西部世界》中描繪的“殺人”機器人,《黑鏡》中演繹的生成式AI偷取真人生活等等。

《黑鏡:我不是機器人》片段

現(xiàn)實生活中,AI已經(jīng)有了不少“黑料”,鼓勵抑郁癥用戶自殺、為用戶提供如何刺殺英國女王的建議、還有對未成年用戶提供細思恐極的建議等等,此外AI的使用也在某些情況下加深了社會上的歧視、仇恨言論和虛假信息的傳播,導致錯誤逮捕、誹謗、網(wǎng)暴和謠言等各種社會性問題加深。

自從AI誕生,它對人類的賦能和其對社會危害的討論一直是并行的,正是因其雙刃性,科技圈的各種大佬對AI的態(tài)度也是大相徑庭,甚至可以說,AI成為了有史以來讓科技圈態(tài)度最為割裂的話題之一。

01、AI保守派

在眾多對AI采取較為保守態(tài)度的科技大牛中,最讓人有些驚訝的就是被稱為“ChatGPT”之父的OpenAICEO - Sam Altman。

在去年ChatGPT推出后,Altman就開始了對于AI監(jiān)管的大型游說,在華盛頓與兩黨領(lǐng)導人和副總統(tǒng)等白宮內(nèi)閣成員就AI進行討論,呼吁政府出手對AI進行監(jiān)管,他還在25個城市內(nèi)進行了為期一個月的全球巡回演說,與各國領(lǐng)導人會面,開誠布公的探討AI的潛在危害以及表達對AI監(jiān)管的需求。今年5月,他還主動參加了一次關(guān)于AI討論的國會聽證會。

與此前小扎和貝索斯等人毫不情愿出現(xiàn)在聽證會上,還要面紅耳赤與國會成員爭吵辯論的畫風不同,Sam Altman選擇主動參加會議,在會議上Altman表示,如果AI技術(shù)產(chǎn)生危害,這些危害將非常致命,他想和政府合作防止最壞情況的發(fā)生。

在具體應用領(lǐng)域上,Altman指出,AI被用于傳播虛假信息是他最擔心的事情。他還認為,AI有可能會帶來失業(yè),但也有機會創(chuàng)造新的工作機會,政府的決策很大程度上可以決定事情向哪個方向發(fā)展。同時他還建議成立AI監(jiān)管機構(gòu),為大規(guī)模AI模型的開發(fā)頒發(fā)許可,AI模型的安全法規(guī)和測試在向公眾發(fā)布之前必須通過許可。

Altman的主動攻勢對于引導政府對AI的態(tài)度極其重要。

因為他游說的主題雖然是監(jiān)管AI,但同時更是讓立法者對人工智能產(chǎn)生興趣和進行了解,縮小了以往華盛頓和硅谷間的信息鴻溝,避免此前科技公司與立法者間關(guān)于干預程度的沖突。

他的策略也確實起了作用,立法者已經(jīng)將他視為AI監(jiān)管的導師和盟友,會邀請他對ChatGPT進行介紹,也在立法時尋求他的建議。

就在這一聽證會后不久,Altman還與多位AI科學家共同簽署了一封信,內(nèi)容非常簡短,只表達了“我們應該將減輕AI對滅絕人類的風險作為全球的首要任務”,簽署這封信的還包括DeepMind的CEO Demis Hassabis,Anthropic的聯(lián)合創(chuàng)始人Daniela Amodei,以及被稱為“AI教父”之一的Geoffrey Hinton。

Geoffrey Hinton在Google任職有十年之久。他在神經(jīng)網(wǎng)絡和深度學習方面的開創(chuàng)性研究為 ChatGPT 等人工智能系統(tǒng)奠定了基礎。

今年Hinton宣布將從Google離職,主要是為了可以更加公正自由的對公眾介紹AI帶來的危害。他曾在多個場合表示,AI目前的智能已經(jīng)到了令人細思恐極的地步,雖然還沒有達到人類的水平,但這一未來并不遙遠,同時AI將以我們無法還想象的方式改變社會,而這些改變很大程度將是糟糕的,比如惡勢力使用AI發(fā)動軍事襲擊等等,他認為AI所帶來的威脅比氣候問題還要嚴重,甚至表示他后悔自己在AI方面做出的努力。

Geoffrey Hinton 的觀點

同樣有著“AI教父”之稱的 Yoshua Bengio與Hinton觀點類似,他在與Business Insider的采訪中表示,AI樂觀派認為AI滅絕人類并不會成為問題,但沒人能確保這一點,在沒有證據(jù)保證這一末日不會到來之前就宣揚它的安全性是不負責的。

選擇站在這一戰(zhàn)線的還有Elon Musk、著名認知科學家Gary Marcus、還有Apple的聯(lián)合創(chuàng)始人Steve Wozniak等。

他們在今年3月聯(lián)合數(shù)百位科技界的知名人士共同簽署了一封公開信,號召所有AI研究室立即停止訓練比GPT-4更強大的AI模型至少半年,為了防止AI的進展太快對社會和人類產(chǎn)生巨大風險,目前聯(lián)名人數(shù)已經(jīng)超過了3萬。

號召暫停AI研究的公開信

02、AI降臨派

不過,與上述大佬持反對態(tài)度的也大有人在,他們對于“AI滅絕論”沒那么緊張,反倒是更看重AI對社會發(fā)展的積極作用,其中的主要聲音之一就是與上面提到的Geoffrey Hinton和Yoshua Bengio曾一起獲得圖靈獎的Yann LeCun。

LeCun以其在卷積神經(jīng)網(wǎng)絡方面的工作而知名,目前是Meta的首席人工智能科學家。

Yann LeCun對于AI發(fā)展的態(tài)度更偏向于大膽和樂觀,就在10月末,他加入了其他70多位學者大牛,簽署了題為“關(guān)于AI安全性和開放性聯(lián)合聲明”的一封公開信,信中提到,我們正處于AI發(fā)展的關(guān)鍵時刻,為了減輕AI對當前和未來的危害,我們應該擁抱更加開放、透明和廣泛的AI權(quán)限,這應當成為全球的首要任務。

信中并沒有對開放式AI模型的潛在危險避而不談,重點更多放在了警告AI監(jiān)管的危害上,比如過早采取錯誤監(jiān)管會導致權(quán)力集中,從而損害競爭和創(chuàng)新。同時還建議從開源到開放科學等多個方面去加速進行AI的嘗試和研究,降低新玩家進入AI競賽的門檻等等。信的最后寫到“在人工智能安全方面,開放是解藥,而不是毒藥,” 這封公開信目前已經(jīng)有接近400個知名人士的簽名。

“關(guān)于AI安全性和開放性聯(lián)合聲明”的一封公開信

Yann LeCun最近還在X上發(fā)表了長篇小作文表達自己對AI監(jiān)管說的不滿。

不但抨擊了Altman等人對AI監(jiān)管的態(tài)度,還劍指Geoffrey Hinton和Yoshua Bengio是在為這些AI監(jiān)管游說者提供彈藥。他說,“如果你們成功讓人們開始畏懼AI,那么我們曾經(jīng)都認為的世界末日就會真正到來,那就是只有少數(shù)公司能夠掌握對AI的控制權(quán)?!?/p>

LeCun最后還將問題的嚴重程度上升到了社會層面,他質(zhì)問AI監(jiān)管論者是否思考過它對民主和文化多樣性會產(chǎn)生什么樣的影響,并表示這些問題讓他徹夜難眠。

Yann LeCun的推文

與Yann LeCun站在同一戰(zhàn)線并且也簽署了上面這封聯(lián)合聲明的還有知名AI學者、Google Brain的創(chuàng)始人和斯坦福大學計算機科學系教授吳恩達(Andrew Ng) 。

他不但反對社會上對AI監(jiān)管的聲音,而且直白表示科技大公司們只是為了自身利益才試圖夸大人們對AI的恐懼,因為他們并不想與開源公司競爭。吳恩達還在自己的X上發(fā)表了推文,表示目前對于AI監(jiān)管的游說將會促成一些壓制開源和阻礙創(chuàng)新規(guī)定的建成,而這則是他最恐懼的事情。

Andrew Ng的推文

隨后Geoffrey Hinton很快在這條推文下進行了回復,不但出了一道題,讓吳恩達計算 “如果AI不被嚴格監(jiān)管,它在未來30年內(nèi)導致人類滅絕的概率是多少?我的估計是 0.1,我猜Yann LeCun估計的值小于0.01,” 而且還表示,“如果大公司游說AI監(jiān)管是為了自己利益而進行的陰謀論,那么我從Google離職不就是最好的反證嗎?”

隨后LeCun加入討論,表示他估計的概率是比其他能夠?qū)е氯祟悳缃^原因的概率小的多,并且讓Hinton計算AI拯救人類免于滅絕的概率。

吳恩達也很快回復,表示自己并沒有說這是一場陰謀論,但舉了一些例子來表達過度夸大AI的恐懼會帶來的真正傷害,比如新的人才拒絕加入AI領(lǐng)域,因為他們不想成為人類滅絕的幫兇,并再次強調(diào)了監(jiān)管對開源和創(chuàng)新的傷害。

大佬們的討論推文

與Yann LeCun和吳恩達等人類似,持AI“樂觀論”的還有美國知名經(jīng)濟學家Eric Von Hippel、AI開源模型庫軟件Hugging Face的CTO Julien Chaumond、AI Now機構(gòu)的創(chuàng)始人Meredith Whittaker、a16z的合伙人Anjney Midha,還有來自多個高校的知名AI研究者,比如哥倫比亞大學的Camille Fran ois、UC Berkeley的Deborah Raji、以及普林斯頓的Arvind Narayanan等等。

03、討論未休,監(jiān)管已至

在大佬們對AI的討論如火如荼進行的同時,白宮也加速了立法和監(jiān)管方面的腳步。

近幾個月來,拜登政府頻繁與科技公司高管和民權(quán)領(lǐng)袖會面,討論AI的發(fā)展問題,白宮在5月宣布向國家科學基金會提供1.4億美元,專用于建立全國多個AI研究所,還陸續(xù)在7月和9月與Amazon、Google、Meta、Microsoft和OpenAI等多家科技公司達成協(xié)議,這些科技公司表示它們將增加對網(wǎng)絡安全和歧視研究的投資,以及會對用戶公開告知AI生成內(nèi)容及其風險。

10月底,白宮還發(fā)布了首個關(guān)于人工智能的行政命令,旨在為AI安全和保障制定標準,在促進創(chuàng)新和競爭的同時保護公民的隱私和權(quán)利,這一規(guī)定中的主要內(nèi)容包括:

要求研發(fā)AI模型的大公司在其系統(tǒng)對外公布前與美國政府分享其安全測試結(jié)果;

美國國家標準與技術(shù)研究所將為廣泛的紅隊測試制定嚴格標準,國土安全部也將成立人工智能安全委員會;

美國商務部將制定內(nèi)容認證和水印指南,來明確標記人工智能生成的內(nèi)容;

加速聯(lián)邦支持對隱私保護技術(shù)的開發(fā),比如讓AI系統(tǒng)在被訓練的同時更好的保護訓練數(shù)據(jù);

在司法和民權(quán)等多個系統(tǒng)內(nèi)對AI算法進行更明確的指導,以防AI被用來加深社會歧視問題;

推動AI在醫(yī)療保健和教育領(lǐng)域的應用,比如用于開發(fā)藥物和創(chuàng)造教育資源;

通過國家AI研究資源試點加速全美的AI研究,為小型開發(fā)者提供資源支持,吸引AI方面的人才留美。

與此同時,由英國主辦的首屆全球人工智能安全峰會也在英國布萊切利公園舉行。這也是“AI之父”圖靈發(fā)明第一代圖靈計算機的地點,來自中國、美國、英國在內(nèi)的28個國家及歐盟領(lǐng)導人參會,并共同簽署了“布萊切利宣言”。

宣言承諾,以安全、負責和以人為本的方式進行AI的開發(fā)和使用,其中提到各國應共同關(guān)注AI安全風險并建立基于這些風險的科學認知和理解,同時各國還應各自制定適用于國情的基于風險的人工智能政策。

對于科技初創(chuàng)公司來說,立法規(guī)定往往意味著對技術(shù)發(fā)展?jié)蚕碌囊慌枥渌?/p>

但此次來自政府的行動卻不全然如此,比如白宮規(guī)定中鼓勵對AI類人才的引進將有望打破目前初創(chuàng)公司難以留住外國人才的現(xiàn)狀,政府對AI推動教育的期許也代表著教育科技類公司將可能獲得風投外來自政府的資金支持等等。

任何科技的發(fā)展都是在支持和反對的聲音中前進的,而AI正因背負著巨大的期待,在未來很長一段時間內(nèi)仍會成為話題中心,甚至將繼續(xù)“割裂”硅谷的聲音,也許歷史和時間能告訴我們真相,在評論里討論下你更支持哪一派的聲音呢?

 

參考來源:

OpenAI’s Sam Altman Urges A.I. Regulation in Senate Hearing (The New York Times)

Meta’s Yann LeCun joins 70 others in calling for more openness in AI development (TechCrunch)

Joint Statement on AI Safety and Opennes (Mozilla)

Biden’s AI Order May Have Wide Impact For Startups (Crunchbase)

AI's most famous leaders are in a huge fight after one said Big Tech is cynically exaggerating the risk of AI wiping out humanity (Business Insider)

 

文末互動:

你是保守派還是降臨派?

評論區(qū)留言告訴我們你的想法哦~

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

AI是否能滅絕人類:讓圖靈三巨頭決裂的百萬問題

被AI分裂的硅谷。

圖片:界面新聞 匡達

文|硅兔賽跑  Lexie

編輯|Lu

近年來,各種反烏托邦式英美劇大火,而人工智能頻繁成為了其中的重要話題,比如《西部世界》中描繪的“殺人”機器人,《黑鏡》中演繹的生成式AI偷取真人生活等等。

《黑鏡:我不是機器人》片段

現(xiàn)實生活中,AI已經(jīng)有了不少“黑料”,鼓勵抑郁癥用戶自殺、為用戶提供如何刺殺英國女王的建議、還有對未成年用戶提供細思恐極的建議等等,此外AI的使用也在某些情況下加深了社會上的歧視、仇恨言論和虛假信息的傳播,導致錯誤逮捕、誹謗、網(wǎng)暴和謠言等各種社會性問題加深。

自從AI誕生,它對人類的賦能和其對社會危害的討論一直是并行的,正是因其雙刃性,科技圈的各種大佬對AI的態(tài)度也是大相徑庭,甚至可以說,AI成為了有史以來讓科技圈態(tài)度最為割裂的話題之一。

01、AI保守派

在眾多對AI采取較為保守態(tài)度的科技大牛中,最讓人有些驚訝的就是被稱為“ChatGPT”之父的OpenAICEO - Sam Altman。

在去年ChatGPT推出后,Altman就開始了對于AI監(jiān)管的大型游說,在華盛頓與兩黨領(lǐng)導人和副總統(tǒng)等白宮內(nèi)閣成員就AI進行討論,呼吁政府出手對AI進行監(jiān)管,他還在25個城市內(nèi)進行了為期一個月的全球巡回演說,與各國領(lǐng)導人會面,開誠布公的探討AI的潛在危害以及表達對AI監(jiān)管的需求。今年5月,他還主動參加了一次關(guān)于AI討論的國會聽證會。

與此前小扎和貝索斯等人毫不情愿出現(xiàn)在聽證會上,還要面紅耳赤與國會成員爭吵辯論的畫風不同,Sam Altman選擇主動參加會議,在會議上Altman表示,如果AI技術(shù)產(chǎn)生危害,這些危害將非常致命,他想和政府合作防止最壞情況的發(fā)生。

在具體應用領(lǐng)域上,Altman指出,AI被用于傳播虛假信息是他最擔心的事情。他還認為,AI有可能會帶來失業(yè),但也有機會創(chuàng)造新的工作機會,政府的決策很大程度上可以決定事情向哪個方向發(fā)展。同時他還建議成立AI監(jiān)管機構(gòu),為大規(guī)模AI模型的開發(fā)頒發(fā)許可,AI模型的安全法規(guī)和測試在向公眾發(fā)布之前必須通過許可。

Altman的主動攻勢對于引導政府對AI的態(tài)度極其重要。

因為他游說的主題雖然是監(jiān)管AI,但同時更是讓立法者對人工智能產(chǎn)生興趣和進行了解,縮小了以往華盛頓和硅谷間的信息鴻溝,避免此前科技公司與立法者間關(guān)于干預程度的沖突。

他的策略也確實起了作用,立法者已經(jīng)將他視為AI監(jiān)管的導師和盟友,會邀請他對ChatGPT進行介紹,也在立法時尋求他的建議。

就在這一聽證會后不久,Altman還與多位AI科學家共同簽署了一封信,內(nèi)容非常簡短,只表達了“我們應該將減輕AI對滅絕人類的風險作為全球的首要任務”,簽署這封信的還包括DeepMind的CEO Demis Hassabis,Anthropic的聯(lián)合創(chuàng)始人Daniela Amodei,以及被稱為“AI教父”之一的Geoffrey Hinton。

Geoffrey Hinton在Google任職有十年之久。他在神經(jīng)網(wǎng)絡和深度學習方面的開創(chuàng)性研究為 ChatGPT 等人工智能系統(tǒng)奠定了基礎。

今年Hinton宣布將從Google離職,主要是為了可以更加公正自由的對公眾介紹AI帶來的危害。他曾在多個場合表示,AI目前的智能已經(jīng)到了令人細思恐極的地步,雖然還沒有達到人類的水平,但這一未來并不遙遠,同時AI將以我們無法還想象的方式改變社會,而這些改變很大程度將是糟糕的,比如惡勢力使用AI發(fā)動軍事襲擊等等,他認為AI所帶來的威脅比氣候問題還要嚴重,甚至表示他后悔自己在AI方面做出的努力。

Geoffrey Hinton 的觀點

同樣有著“AI教父”之稱的 Yoshua Bengio與Hinton觀點類似,他在與Business Insider的采訪中表示,AI樂觀派認為AI滅絕人類并不會成為問題,但沒人能確保這一點,在沒有證據(jù)保證這一末日不會到來之前就宣揚它的安全性是不負責的。

選擇站在這一戰(zhàn)線的還有Elon Musk、著名認知科學家Gary Marcus、還有Apple的聯(lián)合創(chuàng)始人Steve Wozniak等。

他們在今年3月聯(lián)合數(shù)百位科技界的知名人士共同簽署了一封公開信,號召所有AI研究室立即停止訓練比GPT-4更強大的AI模型至少半年,為了防止AI的進展太快對社會和人類產(chǎn)生巨大風險,目前聯(lián)名人數(shù)已經(jīng)超過了3萬。

號召暫停AI研究的公開信

02、AI降臨派

不過,與上述大佬持反對態(tài)度的也大有人在,他們對于“AI滅絕論”沒那么緊張,反倒是更看重AI對社會發(fā)展的積極作用,其中的主要聲音之一就是與上面提到的Geoffrey Hinton和Yoshua Bengio曾一起獲得圖靈獎的Yann LeCun。

LeCun以其在卷積神經(jīng)網(wǎng)絡方面的工作而知名,目前是Meta的首席人工智能科學家。

Yann LeCun對于AI發(fā)展的態(tài)度更偏向于大膽和樂觀,就在10月末,他加入了其他70多位學者大牛,簽署了題為“關(guān)于AI安全性和開放性聯(lián)合聲明”的一封公開信,信中提到,我們正處于AI發(fā)展的關(guān)鍵時刻,為了減輕AI對當前和未來的危害,我們應該擁抱更加開放、透明和廣泛的AI權(quán)限,這應當成為全球的首要任務。

信中并沒有對開放式AI模型的潛在危險避而不談,重點更多放在了警告AI監(jiān)管的危害上,比如過早采取錯誤監(jiān)管會導致權(quán)力集中,從而損害競爭和創(chuàng)新。同時還建議從開源到開放科學等多個方面去加速進行AI的嘗試和研究,降低新玩家進入AI競賽的門檻等等。信的最后寫到“在人工智能安全方面,開放是解藥,而不是毒藥,” 這封公開信目前已經(jīng)有接近400個知名人士的簽名。

“關(guān)于AI安全性和開放性聯(lián)合聲明”的一封公開信

Yann LeCun最近還在X上發(fā)表了長篇小作文表達自己對AI監(jiān)管說的不滿。

不但抨擊了Altman等人對AI監(jiān)管的態(tài)度,還劍指Geoffrey Hinton和Yoshua Bengio是在為這些AI監(jiān)管游說者提供彈藥。他說,“如果你們成功讓人們開始畏懼AI,那么我們曾經(jīng)都認為的世界末日就會真正到來,那就是只有少數(shù)公司能夠掌握對AI的控制權(quán)。”

LeCun最后還將問題的嚴重程度上升到了社會層面,他質(zhì)問AI監(jiān)管論者是否思考過它對民主和文化多樣性會產(chǎn)生什么樣的影響,并表示這些問題讓他徹夜難眠。

Yann LeCun的推文

與Yann LeCun站在同一戰(zhàn)線并且也簽署了上面這封聯(lián)合聲明的還有知名AI學者、Google Brain的創(chuàng)始人和斯坦福大學計算機科學系教授吳恩達(Andrew Ng) 。

他不但反對社會上對AI監(jiān)管的聲音,而且直白表示科技大公司們只是為了自身利益才試圖夸大人們對AI的恐懼,因為他們并不想與開源公司競爭。吳恩達還在自己的X上發(fā)表了推文,表示目前對于AI監(jiān)管的游說將會促成一些壓制開源和阻礙創(chuàng)新規(guī)定的建成,而這則是他最恐懼的事情。

Andrew Ng的推文

隨后Geoffrey Hinton很快在這條推文下進行了回復,不但出了一道題,讓吳恩達計算 “如果AI不被嚴格監(jiān)管,它在未來30年內(nèi)導致人類滅絕的概率是多少?我的估計是 0.1,我猜Yann LeCun估計的值小于0.01,” 而且還表示,“如果大公司游說AI監(jiān)管是為了自己利益而進行的陰謀論,那么我從Google離職不就是最好的反證嗎?”

隨后LeCun加入討論,表示他估計的概率是比其他能夠?qū)е氯祟悳缃^原因的概率小的多,并且讓Hinton計算AI拯救人類免于滅絕的概率。

吳恩達也很快回復,表示自己并沒有說這是一場陰謀論,但舉了一些例子來表達過度夸大AI的恐懼會帶來的真正傷害,比如新的人才拒絕加入AI領(lǐng)域,因為他們不想成為人類滅絕的幫兇,并再次強調(diào)了監(jiān)管對開源和創(chuàng)新的傷害。

大佬們的討論推文

與Yann LeCun和吳恩達等人類似,持AI“樂觀論”的還有美國知名經(jīng)濟學家Eric Von Hippel、AI開源模型庫軟件Hugging Face的CTO Julien Chaumond、AI Now機構(gòu)的創(chuàng)始人Meredith Whittaker、a16z的合伙人Anjney Midha,還有來自多個高校的知名AI研究者,比如哥倫比亞大學的Camille Fran ois、UC Berkeley的Deborah Raji、以及普林斯頓的Arvind Narayanan等等。

03、討論未休,監(jiān)管已至

在大佬們對AI的討論如火如荼進行的同時,白宮也加速了立法和監(jiān)管方面的腳步。

近幾個月來,拜登政府頻繁與科技公司高管和民權(quán)領(lǐng)袖會面,討論AI的發(fā)展問題,白宮在5月宣布向國家科學基金會提供1.4億美元,專用于建立全國多個AI研究所,還陸續(xù)在7月和9月與Amazon、Google、Meta、Microsoft和OpenAI等多家科技公司達成協(xié)議,這些科技公司表示它們將增加對網(wǎng)絡安全和歧視研究的投資,以及會對用戶公開告知AI生成內(nèi)容及其風險。

10月底,白宮還發(fā)布了首個關(guān)于人工智能的行政命令,旨在為AI安全和保障制定標準,在促進創(chuàng)新和競爭的同時保護公民的隱私和權(quán)利,這一規(guī)定中的主要內(nèi)容包括:

要求研發(fā)AI模型的大公司在其系統(tǒng)對外公布前與美國政府分享其安全測試結(jié)果;

美國國家標準與技術(shù)研究所將為廣泛的紅隊測試制定嚴格標準,國土安全部也將成立人工智能安全委員會;

美國商務部將制定內(nèi)容認證和水印指南,來明確標記人工智能生成的內(nèi)容;

加速聯(lián)邦支持對隱私保護技術(shù)的開發(fā),比如讓AI系統(tǒng)在被訓練的同時更好的保護訓練數(shù)據(jù);

在司法和民權(quán)等多個系統(tǒng)內(nèi)對AI算法進行更明確的指導,以防AI被用來加深社會歧視問題;

推動AI在醫(yī)療保健和教育領(lǐng)域的應用,比如用于開發(fā)藥物和創(chuàng)造教育資源;

通過國家AI研究資源試點加速全美的AI研究,為小型開發(fā)者提供資源支持,吸引AI方面的人才留美。

與此同時,由英國主辦的首屆全球人工智能安全峰會也在英國布萊切利公園舉行。這也是“AI之父”圖靈發(fā)明第一代圖靈計算機的地點,來自中國、美國、英國在內(nèi)的28個國家及歐盟領(lǐng)導人參會,并共同簽署了“布萊切利宣言”。

宣言承諾,以安全、負責和以人為本的方式進行AI的開發(fā)和使用,其中提到各國應共同關(guān)注AI安全風險并建立基于這些風險的科學認知和理解,同時各國還應各自制定適用于國情的基于風險的人工智能政策。

對于科技初創(chuàng)公司來說,立法規(guī)定往往意味著對技術(shù)發(fā)展?jié)蚕碌囊慌枥渌?/p>

但此次來自政府的行動卻不全然如此,比如白宮規(guī)定中鼓勵對AI類人才的引進將有望打破目前初創(chuàng)公司難以留住外國人才的現(xiàn)狀,政府對AI推動教育的期許也代表著教育科技類公司將可能獲得風投外來自政府的資金支持等等。

任何科技的發(fā)展都是在支持和反對的聲音中前進的,而AI正因背負著巨大的期待,在未來很長一段時間內(nèi)仍會成為話題中心,甚至將繼續(xù)“割裂”硅谷的聲音,也許歷史和時間能告訴我們真相,在評論里討論下你更支持哪一派的聲音呢?

 

參考來源:

OpenAI’s Sam Altman Urges A.I. Regulation in Senate Hearing (The New York Times)

Meta’s Yann LeCun joins 70 others in calling for more openness in AI development (TechCrunch)

Joint Statement on AI Safety and Opennes (Mozilla)

Biden’s AI Order May Have Wide Impact For Startups (Crunchbase)

AI's most famous leaders are in a huge fight after one said Big Tech is cynically exaggerating the risk of AI wiping out humanity (Business Insider)

 

文末互動:

你是保守派還是降臨派?

評論區(qū)留言告訴我們你的想法哦~

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。