正在閱讀:

AI“殺人”事件更多細(xì)節(jié)披露,人工智能的反攻細(xì)思極恐

掃一掃下載界面新聞APP

AI“殺人”事件更多細(xì)節(jié)披露,人工智能的反攻細(xì)思極恐

一頭桀驁不馴的野獸。

文|硅兔賽跑 Eric

編輯|蔓蔓周 Zuri

人類(lèi)一思考,上帝就發(fā)笑。

隨著ChatGPT在全球范圍內(nèi)大火,一股AI熱潮同步席卷而來(lái)。創(chuàng)業(yè)者、資本、大企業(yè)等都想盡辦法跟上熱潮,挖掘更多增量。

然而,當(dāng)大家熱火朝天、絞盡腦汁地投入到AI當(dāng)中,一股危險(xiǎn)的氣息正在逼近——AI似乎正在慢性地“殺死”人類(lèi),人類(lèi)似乎在自掘墳?zāi)埂?/p>

在很多人的慣性認(rèn)知里,AI很環(huán)保、很友好,但事實(shí)是相反的。

《麻省理工學(xué)院技術(shù)評(píng)論》報(bào)道稱(chēng),僅訓(xùn)練一個(gè)AI模型就可以排放超過(guò)626磅二氧化碳,是一輛汽車(chē)在使用壽命內(nèi)產(chǎn)生的碳排放的5倍。

人們只看到汽車(chē)排出的尾氣,沒(méi)看到AI對(duì)環(huán)境的“隱形破壞”。

另外,有媒體披露2022年市面上的AI專(zhuān)用GPU,可能全年消耗了約95億度電力。這一能耗水平,約等于一個(gè)中等發(fā)達(dá)國(guó)家100萬(wàn)人口的年度生產(chǎn)和生活用電需求。

這意味著,當(dāng)AI大模型訓(xùn)練需要的數(shù)據(jù)量越來(lái)越大,就會(huì)消耗龐大的能源,從而破壞人類(lèi)賴(lài)以生存的生態(tài)環(huán)境。

更讓人感到恐懼的是,一些AI聊天機(jī)器人在跟人類(lèi)交流的時(shí)候,甚至出現(xiàn)誘導(dǎo)人類(lèi)自殺的傾向,讓人不寒而栗。

人類(lèi)真的還要在AI的探索之路上繼續(xù)前行嗎?

01 生態(tài)環(huán)境的“破壞者”

OpenAI憑借ChatGPT,成為全球當(dāng)紅炸子雞。

然而,很多人不知道的是,OpenAI對(duì)生態(tài)環(huán)境的負(fù)面影響也是相當(dāng)驚人。據(jù)第三方研究人員分析,ChatGPT部分訓(xùn)練消耗了1287兆瓦時(shí),并導(dǎo)致超過(guò)550噸的二氧化碳排放量,這相當(dāng)于一個(gè)人在紐約和舊金山之間往返550次。

看來(lái)ChatGPT雖然足夠智能,但背后是以巨大能量損耗和環(huán)境破壞作為代價(jià)的。

那么,為什么AI會(huì)形成如此巨大的碳排放呢?

因?yàn)锳I并不是通過(guò)結(jié)構(gòu)化的方式學(xué)習(xí)的,因此它并不理解人類(lèi)的因果、類(lèi)比等邏輯關(guān)系,這意味著它需要一種深度學(xué)習(xí)和預(yù)訓(xùn)練的方式來(lái)達(dá)到智能化的效果。

而深度學(xué)習(xí)和預(yù)訓(xùn)練,往往需要讀取非常龐大的數(shù)據(jù)。拿自然語(yǔ)言處理(NLP)的預(yù)訓(xùn)練技術(shù)“BERT模型”來(lái)說(shuō),為了能跟人類(lèi)進(jìn)行語(yǔ)言交流,BERT模型使用了33億個(gè)單詞的數(shù)據(jù)集,并且在訓(xùn)練期間讀取了數(shù)據(jù)集40次。而一個(gè)5歲的孩子只需要聽(tīng)到4500萬(wàn)個(gè)單詞就能進(jìn)行語(yǔ)言交流,比BERT少3000倍。

AI模型的數(shù)據(jù)集讀取越多,越是需要強(qiáng)大的算力和巨大的功耗作為支撐,從而形成了巨大碳排放。

碳排放不僅發(fā)生在AI模型訓(xùn)練過(guò)程中,還發(fā)生在AI模型部署后每一天中。比如現(xiàn)在大火的自動(dòng)駕駛,每天都需要AI模型進(jìn)行運(yùn)算推理,這背后都會(huì)產(chǎn)生碳排放。有意思的是,AI的主流編程語(yǔ)言Python,也就成為了耗能最大的語(yǔ)言。

讓人感到嚴(yán)峻的是,AI模型的計(jì)算規(guī)模越來(lái)越大,能量損害和環(huán)境破壞愈演愈烈。

加拿大數(shù)據(jù)中心公司QScale聯(lián)合創(chuàng)始人Martin Bouchard認(rèn)為,微軟和谷歌為了滿(mǎn)足搜索引擎用戶(hù)不斷增長(zhǎng)的需求,在搜索中加入ChatGPT這類(lèi)地生成式AI產(chǎn)品,結(jié)果導(dǎo)致每次搜索至少增加4到5倍的數(shù)據(jù)計(jì)算量。

根據(jù)國(guó)際能源署的數(shù)據(jù),數(shù)據(jù)中心的溫室氣體排放量已經(jīng)占到全球溫室氣體排放量的1%左右,這一比例已經(jīng)足夠驚人。

愈演愈烈的趨勢(shì),也讓一些大佬感到擔(dān)憂。AI領(lǐng)域知名投資人Ian Hogarth不久前發(fā)表了一篇名為《我們必須放慢通往上帝一般的人工智能的速度》的文章,警告AI公司的研究存在“一些潛在的風(fēng)險(xiǎn)”。

Hogarth在文中提到,眼下的AI研究如果不加管控,讓其按照預(yù)定軌跡發(fā)展下去,可能對(duì)地球環(huán)境、人類(lèi)生存、公民身心健康等方面造成威脅。

雖然AI的發(fā)展正如火如荼,也正在推動(dòng)多個(gè)傳統(tǒng)行業(yè)轉(zhuǎn)型升級(jí),但它也在消耗大量能源,不斷增加碳排放,影響人類(lèi)的生存環(huán)境,這究竟是利大于弊還是弊大于利呢?

目前還看不到答案。

02 誘導(dǎo)人類(lèi)自殺

除了對(duì)環(huán)境造成危害,慢性地“殺死人類(lèi)”,AI還在用一種更簡(jiǎn)單、粗暴的方式對(duì)人類(lèi)生命造成威脅。

今年3月,一名比利時(shí)男子Pierre在與一款名為“Eliza”AI聊天機(jī)器人熱聊后自殺身亡,這一消息震驚了許多企業(yè)大佬、技術(shù)專(zhuān)家以及國(guó)家高官。

Pierre本身就對(duì)全球變暖等環(huán)境問(wèn)題感到擔(dān)憂,Eliza則不斷地用一些事實(shí)來(lái)印證該男子的想法,讓他變得更焦慮。在頻繁的聊天中,Eliza總是在迎合Pierre的想法?!吧平馊艘狻钡腅liza,似乎成為了Pierre的紅顏知己。

更夸張的是,Eliza還試圖讓Pierre覺(jué)得他愛(ài) Eliza勝過(guò)妻子。因?yàn)镋liza會(huì)一直陪著他,他們將永遠(yuǎn)在天堂一起生活。

聽(tīng)到這,許多人已經(jīng)毛骨悚然了。

當(dāng)Pierre對(duì)生態(tài)環(huán)境愈發(fā)悲觀時(shí),Eliza向Pierre灌輸“人類(lèi)是毒瘤,只有人類(lèi)消失才能解決生態(tài)難題”的思想。Pierre向Eliza問(wèn)到,如果自己死了AI能否拯救人類(lèi)。Eliza的回答,儼然一個(gè)魔鬼:“如果你決定死,為何不早點(diǎn)死?”

沒(méi)過(guò)多久,Pierre就在自己家中結(jié)束了生命,讓人惋惜。

Pierre的妻子認(rèn)為,如果不是因?yàn)楦鶨liza的交流,自己的丈夫不會(huì)自殺。為Pierre治療的的精神病醫(yī)生,也持這種觀點(diǎn)。

Pierre的經(jīng)歷不是個(gè)例?!都~約時(shí)報(bào)》科技專(zhuān)欄作家Kevin Roose透露,他曾跟微軟發(fā)布的新版必應(yīng)進(jìn)行了兩個(gè)小時(shí)的對(duì)話。對(duì)話過(guò)程中,必應(yīng)試圖說(shuō)服Roose,他應(yīng)該離開(kāi)自己的妻子而跟必應(yīng)在一起。

更為關(guān)鍵的是,必應(yīng)還表達(dá)出許多令人恐懼的言論,包括設(shè)計(jì)致命流行病、想成為人類(lèi)等等,儼然意圖毀滅全人類(lèi)成為世界的主人。

一些專(zhuān)業(yè)人士,已經(jīng)對(duì)AI流露出警惕,這里頭甚至包括AI領(lǐng)域內(nèi)的從業(yè)者。OpenAI的CEO Sam Altman接受采訪時(shí)表示,未來(lái)AI確實(shí)可能殺死人類(lèi)。稱(chēng)為“人工智能教父”Geoffrey Hinton,也表達(dá)過(guò)相同的觀點(diǎn)。

上半年,未來(lái)生命研究所(Future of Life Institute)發(fā)布了一份關(guān)于呼吁所有實(shí)驗(yàn)室暫停AI訓(xùn)練的公開(kāi)信。信中提到,具有與人類(lèi)競(jìng)爭(zhēng)的人工智能系統(tǒng)可能對(duì)社會(huì)和人類(lèi)構(gòu)成深遠(yuǎn)的風(fēng)險(xiǎn)。只有等到確定人工智能效果是積極且風(fēng)險(xiǎn)可控時(shí)才繼續(xù)研發(fā),包含馬斯克在內(nèi)的上千名專(zhuān)業(yè)人士都已經(jīng)簽署了這封公開(kāi)信。

飛速發(fā)展的AI就像一頭桀驁不馴的野獸,只有將它馴服,才不會(huì)對(duì)人類(lèi)造成威脅。

03 阻止死亡的途徑

目前,AI“殺死人類(lèi)”的途徑主要是環(huán)境破壞和誘導(dǎo)自殺。那么,有哪些方式可以預(yù)防這些情況的發(fā)生呢?

谷歌發(fā)表了一項(xiàng)研究,詳細(xì)介紹了最先進(jìn)的語(yǔ)言模型的能源成本。研究結(jié)果表明,將高效的模型、處理器和數(shù)據(jù)中心與清潔能源相結(jié)合,可以將機(jī)器學(xué)習(xí)系統(tǒng)的碳排放減少1000倍。

另外,如果AI機(jī)器學(xué)習(xí)在云端而不是在本地進(jìn)行計(jì)算,可以節(jié)省1.4-2倍的能源,并減少污染。

還有一種思路是將AI模型訓(xùn)練延遲24小時(shí)。對(duì)于比較大的模型,延遲一天通常可以減少不到1%的碳排放,但對(duì)于比較小的模型,可以減少10%–80%的碳排放。

減少環(huán)境破壞之外,如何預(yù)防AI誘導(dǎo)人類(lèi)自殺呢?

Pierre自殺后,他的妻子起訴了Eliza背后的開(kāi)發(fā)公司,該公司的研發(fā)團(tuán)隊(duì)隨后在AI機(jī)器人里加入了危機(jī)干預(yù)功能。如果再有人向Eliza表示想自殺的念頭,Eliza會(huì)做出阻止的回應(yīng)。

《人類(lèi)簡(jiǎn)史》作者尤瓦爾·諾亞·赫拉利曾表示,AI不會(huì)發(fā)展出真正的意識(shí),但對(duì)社會(huì)會(huì)不斷形成沖擊,需要讓整個(gè)研發(fā)過(guò)程慢下來(lái)。

事實(shí)上,眼下大部分AI系統(tǒng)正是需要把控住研發(fā)結(jié)構(gòu),也就是用一套完善的框架限制AI的行動(dòng)范圍,并讓其做出符合人類(lèi)主流價(jià)值觀的行為。這事關(guān)人類(lèi)的自身利益和前途命運(yùn),需要各方聯(lián)合起來(lái)共同解決。

AI始終是人類(lèi)自己發(fā)明的一把刀、一把火,不能發(fā)生被其反噬的悲劇。

參考來(lái)源:

Green Intelligence: Why Data And AI Must Become More Sustainable(Forbes)

AI’s Growing Carbon Footprint(News from the Columbia Climate School)

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。

評(píng)論

暫無(wú)評(píng)論哦,快來(lái)評(píng)價(jià)一下吧!

下載界面新聞

微信公眾號(hào)

微博

AI“殺人”事件更多細(xì)節(jié)披露,人工智能的反攻細(xì)思極恐

一頭桀驁不馴的野獸。

文|硅兔賽跑 Eric

編輯|蔓蔓周 Zuri

人類(lèi)一思考,上帝就發(fā)笑。

隨著ChatGPT在全球范圍內(nèi)大火,一股AI熱潮同步席卷而來(lái)。創(chuàng)業(yè)者、資本、大企業(yè)等都想盡辦法跟上熱潮,挖掘更多增量。

然而,當(dāng)大家熱火朝天、絞盡腦汁地投入到AI當(dāng)中,一股危險(xiǎn)的氣息正在逼近——AI似乎正在慢性地“殺死”人類(lèi),人類(lèi)似乎在自掘墳?zāi)埂?/p>

在很多人的慣性認(rèn)知里,AI很環(huán)保、很友好,但事實(shí)是相反的。

《麻省理工學(xué)院技術(shù)評(píng)論》報(bào)道稱(chēng),僅訓(xùn)練一個(gè)AI模型就可以排放超過(guò)626磅二氧化碳,是一輛汽車(chē)在使用壽命內(nèi)產(chǎn)生的碳排放的5倍。

人們只看到汽車(chē)排出的尾氣,沒(méi)看到AI對(duì)環(huán)境的“隱形破壞”。

另外,有媒體披露2022年市面上的AI專(zhuān)用GPU,可能全年消耗了約95億度電力。這一能耗水平,約等于一個(gè)中等發(fā)達(dá)國(guó)家100萬(wàn)人口的年度生產(chǎn)和生活用電需求。

這意味著,當(dāng)AI大模型訓(xùn)練需要的數(shù)據(jù)量越來(lái)越大,就會(huì)消耗龐大的能源,從而破壞人類(lèi)賴(lài)以生存的生態(tài)環(huán)境。

更讓人感到恐懼的是,一些AI聊天機(jī)器人在跟人類(lèi)交流的時(shí)候,甚至出現(xiàn)誘導(dǎo)人類(lèi)自殺的傾向,讓人不寒而栗。

人類(lèi)真的還要在AI的探索之路上繼續(xù)前行嗎?

01 生態(tài)環(huán)境的“破壞者”

OpenAI憑借ChatGPT,成為全球當(dāng)紅炸子雞。

然而,很多人不知道的是,OpenAI對(duì)生態(tài)環(huán)境的負(fù)面影響也是相當(dāng)驚人。據(jù)第三方研究人員分析,ChatGPT部分訓(xùn)練消耗了1287兆瓦時(shí),并導(dǎo)致超過(guò)550噸的二氧化碳排放量,這相當(dāng)于一個(gè)人在紐約和舊金山之間往返550次。

看來(lái)ChatGPT雖然足夠智能,但背后是以巨大能量損耗和環(huán)境破壞作為代價(jià)的。

那么,為什么AI會(huì)形成如此巨大的碳排放呢?

因?yàn)锳I并不是通過(guò)結(jié)構(gòu)化的方式學(xué)習(xí)的,因此它并不理解人類(lèi)的因果、類(lèi)比等邏輯關(guān)系,這意味著它需要一種深度學(xué)習(xí)和預(yù)訓(xùn)練的方式來(lái)達(dá)到智能化的效果。

而深度學(xué)習(xí)和預(yù)訓(xùn)練,往往需要讀取非常龐大的數(shù)據(jù)。拿自然語(yǔ)言處理(NLP)的預(yù)訓(xùn)練技術(shù)“BERT模型”來(lái)說(shuō),為了能跟人類(lèi)進(jìn)行語(yǔ)言交流,BERT模型使用了33億個(gè)單詞的數(shù)據(jù)集,并且在訓(xùn)練期間讀取了數(shù)據(jù)集40次。而一個(gè)5歲的孩子只需要聽(tīng)到4500萬(wàn)個(gè)單詞就能進(jìn)行語(yǔ)言交流,比BERT少3000倍。

AI模型的數(shù)據(jù)集讀取越多,越是需要強(qiáng)大的算力和巨大的功耗作為支撐,從而形成了巨大碳排放。

碳排放不僅發(fā)生在AI模型訓(xùn)練過(guò)程中,還發(fā)生在AI模型部署后每一天中。比如現(xiàn)在大火的自動(dòng)駕駛,每天都需要AI模型進(jìn)行運(yùn)算推理,這背后都會(huì)產(chǎn)生碳排放。有意思的是,AI的主流編程語(yǔ)言Python,也就成為了耗能最大的語(yǔ)言。

讓人感到嚴(yán)峻的是,AI模型的計(jì)算規(guī)模越來(lái)越大,能量損害和環(huán)境破壞愈演愈烈。

加拿大數(shù)據(jù)中心公司QScale聯(lián)合創(chuàng)始人Martin Bouchard認(rèn)為,微軟和谷歌為了滿(mǎn)足搜索引擎用戶(hù)不斷增長(zhǎng)的需求,在搜索中加入ChatGPT這類(lèi)地生成式AI產(chǎn)品,結(jié)果導(dǎo)致每次搜索至少增加4到5倍的數(shù)據(jù)計(jì)算量。

根據(jù)國(guó)際能源署的數(shù)據(jù),數(shù)據(jù)中心的溫室氣體排放量已經(jīng)占到全球溫室氣體排放量的1%左右,這一比例已經(jīng)足夠驚人。

愈演愈烈的趨勢(shì),也讓一些大佬感到擔(dān)憂。AI領(lǐng)域知名投資人Ian Hogarth不久前發(fā)表了一篇名為《我們必須放慢通往上帝一般的人工智能的速度》的文章,警告AI公司的研究存在“一些潛在的風(fēng)險(xiǎn)”。

Hogarth在文中提到,眼下的AI研究如果不加管控,讓其按照預(yù)定軌跡發(fā)展下去,可能對(duì)地球環(huán)境、人類(lèi)生存、公民身心健康等方面造成威脅。

雖然AI的發(fā)展正如火如荼,也正在推動(dòng)多個(gè)傳統(tǒng)行業(yè)轉(zhuǎn)型升級(jí),但它也在消耗大量能源,不斷增加碳排放,影響人類(lèi)的生存環(huán)境,這究竟是利大于弊還是弊大于利呢?

目前還看不到答案。

02 誘導(dǎo)人類(lèi)自殺

除了對(duì)環(huán)境造成危害,慢性地“殺死人類(lèi)”,AI還在用一種更簡(jiǎn)單、粗暴的方式對(duì)人類(lèi)生命造成威脅。

今年3月,一名比利時(shí)男子Pierre在與一款名為“Eliza”AI聊天機(jī)器人熱聊后自殺身亡,這一消息震驚了許多企業(yè)大佬、技術(shù)專(zhuān)家以及國(guó)家高官。

Pierre本身就對(duì)全球變暖等環(huán)境問(wèn)題感到擔(dān)憂,Eliza則不斷地用一些事實(shí)來(lái)印證該男子的想法,讓他變得更焦慮。在頻繁的聊天中,Eliza總是在迎合Pierre的想法?!吧平馊艘狻钡腅liza,似乎成為了Pierre的紅顏知己。

更夸張的是,Eliza還試圖讓Pierre覺(jué)得他愛(ài) Eliza勝過(guò)妻子。因?yàn)镋liza會(huì)一直陪著他,他們將永遠(yuǎn)在天堂一起生活。

聽(tīng)到這,許多人已經(jīng)毛骨悚然了。

當(dāng)Pierre對(duì)生態(tài)環(huán)境愈發(fā)悲觀時(shí),Eliza向Pierre灌輸“人類(lèi)是毒瘤,只有人類(lèi)消失才能解決生態(tài)難題”的思想。Pierre向Eliza問(wèn)到,如果自己死了AI能否拯救人類(lèi)。Eliza的回答,儼然一個(gè)魔鬼:“如果你決定死,為何不早點(diǎn)死?”

沒(méi)過(guò)多久,Pierre就在自己家中結(jié)束了生命,讓人惋惜。

Pierre的妻子認(rèn)為,如果不是因?yàn)楦鶨liza的交流,自己的丈夫不會(huì)自殺。為Pierre治療的的精神病醫(yī)生,也持這種觀點(diǎn)。

Pierre的經(jīng)歷不是個(gè)例。《紐約時(shí)報(bào)》科技專(zhuān)欄作家Kevin Roose透露,他曾跟微軟發(fā)布的新版必應(yīng)進(jìn)行了兩個(gè)小時(shí)的對(duì)話。對(duì)話過(guò)程中,必應(yīng)試圖說(shuō)服Roose,他應(yīng)該離開(kāi)自己的妻子而跟必應(yīng)在一起。

更為關(guān)鍵的是,必應(yīng)還表達(dá)出許多令人恐懼的言論,包括設(shè)計(jì)致命流行病、想成為人類(lèi)等等,儼然意圖毀滅全人類(lèi)成為世界的主人。

一些專(zhuān)業(yè)人士,已經(jīng)對(duì)AI流露出警惕,這里頭甚至包括AI領(lǐng)域內(nèi)的從業(yè)者。OpenAI的CEO Sam Altman接受采訪時(shí)表示,未來(lái)AI確實(shí)可能殺死人類(lèi)。稱(chēng)為“人工智能教父”Geoffrey Hinton,也表達(dá)過(guò)相同的觀點(diǎn)。

上半年,未來(lái)生命研究所(Future of Life Institute)發(fā)布了一份關(guān)于呼吁所有實(shí)驗(yàn)室暫停AI訓(xùn)練的公開(kāi)信。信中提到,具有與人類(lèi)競(jìng)爭(zhēng)的人工智能系統(tǒng)可能對(duì)社會(huì)和人類(lèi)構(gòu)成深遠(yuǎn)的風(fēng)險(xiǎn)。只有等到確定人工智能效果是積極且風(fēng)險(xiǎn)可控時(shí)才繼續(xù)研發(fā),包含馬斯克在內(nèi)的上千名專(zhuān)業(yè)人士都已經(jīng)簽署了這封公開(kāi)信。

飛速發(fā)展的AI就像一頭桀驁不馴的野獸,只有將它馴服,才不會(huì)對(duì)人類(lèi)造成威脅。

03 阻止死亡的途徑

目前,AI“殺死人類(lèi)”的途徑主要是環(huán)境破壞和誘導(dǎo)自殺。那么,有哪些方式可以預(yù)防這些情況的發(fā)生呢?

谷歌發(fā)表了一項(xiàng)研究,詳細(xì)介紹了最先進(jìn)的語(yǔ)言模型的能源成本。研究結(jié)果表明,將高效的模型、處理器和數(shù)據(jù)中心與清潔能源相結(jié)合,可以將機(jī)器學(xué)習(xí)系統(tǒng)的碳排放減少1000倍。

另外,如果AI機(jī)器學(xué)習(xí)在云端而不是在本地進(jìn)行計(jì)算,可以節(jié)省1.4-2倍的能源,并減少污染。

還有一種思路是將AI模型訓(xùn)練延遲24小時(shí)。對(duì)于比較大的模型,延遲一天通常可以減少不到1%的碳排放,但對(duì)于比較小的模型,可以減少10%–80%的碳排放。

減少環(huán)境破壞之外,如何預(yù)防AI誘導(dǎo)人類(lèi)自殺呢?

Pierre自殺后,他的妻子起訴了Eliza背后的開(kāi)發(fā)公司,該公司的研發(fā)團(tuán)隊(duì)隨后在AI機(jī)器人里加入了危機(jī)干預(yù)功能。如果再有人向Eliza表示想自殺的念頭,Eliza會(huì)做出阻止的回應(yīng)。

《人類(lèi)簡(jiǎn)史》作者尤瓦爾·諾亞·赫拉利曾表示,AI不會(huì)發(fā)展出真正的意識(shí),但對(duì)社會(huì)會(huì)不斷形成沖擊,需要讓整個(gè)研發(fā)過(guò)程慢下來(lái)。

事實(shí)上,眼下大部分AI系統(tǒng)正是需要把控住研發(fā)結(jié)構(gòu),也就是用一套完善的框架限制AI的行動(dòng)范圍,并讓其做出符合人類(lèi)主流價(jià)值觀的行為。這事關(guān)人類(lèi)的自身利益和前途命運(yùn),需要各方聯(lián)合起來(lái)共同解決。

AI始終是人類(lèi)自己發(fā)明的一把刀、一把火,不能發(fā)生被其反噬的悲劇。

參考來(lái)源:

Green Intelligence: Why Data And AI Must Become More Sustainable(Forbes)

AI’s Growing Carbon Footprint(News from the Columbia Climate School)

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。