文|科技新知 石榴
編輯丨月見
2023年之前,恐怕誰也沒想到,AI有一天能用如此速度,席卷全球。
距離ChatGPT點(diǎn)燃全網(wǎng)討論熱度不到半年,GPT-4、Microsoft 365 Copilot、Midjourney V5、文心一言、Google PaLM API等眾多巨頭級(jí) AI 大模型及應(yīng)用已經(jīng)紛紛落地。
這些前沿科技成果在為大眾帶來震撼的同時(shí),也難免讓人產(chǎn)生擔(dān)憂。一場(chǎng)“降臨派”與“拯救派”的較量在默默展開。
近日,生命未來研究所(Future of Life)公開發(fā)布一封名為《暫停大型人工智能研究》的公開信,將這場(chǎng)較量放在了明面之上。公開信中呼吁,所有人工智能實(shí)驗(yàn)室應(yīng)立即暫停比GPT-4更強(qiáng)大的人工智能系統(tǒng)的訓(xùn)練,為期至少6個(gè)月。
該機(jī)構(gòu)在信中提到:“只有當(dāng)我們確信其影響將是積極的,并且其風(fēng)險(xiǎn)是可控時(shí),才應(yīng)該開發(fā)強(qiáng)大的人工智能系統(tǒng)。這種信心必須有充分的理由,并隨著系統(tǒng)潛在影響的大小而增加?!?/p>
“人工智能實(shí)驗(yàn)室和獨(dú)立專家應(yīng)該利用這次暫停,共同制定和實(shí)施一套共享的安全協(xié)議,用于先進(jìn)的人工智能設(shè)計(jì)和開發(fā),這些協(xié)議由獨(dú)立的外部專家進(jìn)行嚴(yán)格的審計(jì)和監(jiān)督,并應(yīng)確保它們是安全的?!?/p>
特斯拉和推特的首席執(zhí)行官馬斯克、蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozniak、蒙特利爾學(xué)習(xí)算法研究所所長約書亞·本吉奧(Yoshua Bengio)等眾多科技領(lǐng)域從業(yè)者和AI專家都在這封公開信上留下簽名。截至發(fā)稿前,總?cè)藬?shù)已經(jīng)達(dá)到1794名,并仍在持續(xù)增加。
01、馬斯克與OpenAI“宮斗”始末
作為OpenAI公司的聯(lián)合創(chuàng)始人之一,馬斯克對(duì)其態(tài)度一直較為耐人尋味。過去幾個(gè)月,馬斯克對(duì) OpenAI 相關(guān)信息持續(xù)轟炸,一會(huì)兒強(qiáng)調(diào) AI 安全性的問題,一會(huì)兒又“陰陽” OpenAI 的代碼庫,而他作為第一位投資者,什么都沒有得到。
2015年,馬斯克和阿爾特曼一起擔(dān)任聯(lián)合主席,當(dāng)時(shí),OpenAI的目標(biāo)是“以最有可能造福整個(gè)人類的方式推進(jìn)數(shù)字智能,不受產(chǎn)生財(cái)務(wù)回報(bào)需求的約束”。
但他在2018年離開了OpenAI的董事會(huì),并撤銷了一大筆贊助款。雜志《財(cái)富》報(bào)道稱,馬斯克雖然支持人工智能,但特斯拉智能駕駛技術(shù)與OpenAI之間有“潛在利益沖突”。
當(dāng)時(shí)特斯拉正在為自動(dòng)駕駛開發(fā)自己的人工智能,并在與OpenAI競(jìng)爭(zhēng)人才。2022年離職的特斯拉自動(dòng)駕駛主管Andrej Kapathy就是其中之一。他是 OpenAI最優(yōu)秀的人才之一,且是AI界著名網(wǎng)紅,在推特和Medium上非?;钴S。
但在OpenAI,大多數(shù)員工對(duì)這個(gè)故事并不買賬?!禨emafor》采訪了八位熟悉內(nèi)情的人士后發(fā)現(xiàn),馬斯克在2018年離開的原因是奪權(quán)失敗。他認(rèn)為該公司已經(jīng)嚴(yán)重落后于Google,于是,馬斯克提出了一個(gè)可能的解決方案——他來掌控OpenAI并親自運(yùn)營。然而,阿爾特曼和其他創(chuàng)始人拒絕了馬斯克的提議。
在這場(chǎng)權(quán)力之爭(zhēng)失敗后,馬斯克選擇離開公司,并取消了一筆大規(guī)模的捐贈(zèng)計(jì)劃。這使得OpenAI無法支付在超級(jí)計(jì)算機(jī)上訓(xùn)練人工智能模型所需的巨額費(fèi)用。6個(gè)月后,OpenAI從微軟那里獲得了10億美元的投資,不僅是資金,還有微軟提供的基礎(chǔ)設(shè)施的專業(yè)知識(shí)。
這或許也就不難理解,為何在離開OpenAI后,馬斯克就一直在批評(píng)后者,甚至矛頭直指其最大的支持者微軟。3月16日,馬斯克還在Twitter上表示,“我最早向OpenAI捐贈(zèng)了1億美元,當(dāng)時(shí)它還是非營利的機(jī)構(gòu),沒有所有權(quán),也不受任何人控制。”他還抨擊微軟“將OpenAI占為己有”。
在越來越不可調(diào)和的矛盾面前,阿爾特曼也終于沒忍住爆了粗口。在最近與科技記者卡拉·斯威舍(Kara Swisher)的播客中,阿爾特曼用“混蛋”(jerk)來形容馬斯克。
有意思的是,此前阿爾特曼的名字也曾出現(xiàn)在公開信上。后續(xù),經(jīng)證明,此簽名為虛假簽名,很快被移除。
對(duì)于公開信,阿爾特曼也并未做出直接回應(yīng)。但在30日早晨,他在Twitter發(fā)表了一些關(guān)于通用人工智能的觀點(diǎn),OpenAI的另一位創(chuàng)始人格雷格·布羅克曼(Greg Brockman)也轉(zhuǎn)發(fā)了阿爾特曼的推文,并再次強(qiáng)調(diào)OpenAI的使命是“確保AGI惠及全人類”。
02、都在擔(dān)憂什么?
“宮斗權(quán)謀”故事總歸令人興奮,但相比于馬斯克,名單上的大部分人則真正是對(duì)當(dāng)前突然加速的AGI(通用人工智能)發(fā)展感到擔(dān)憂——尤其是發(fā)展的速度。
在這封信的組織者之一、生命未來研究所所長馬克斯·泰格馬克(Max Tegmark)看來,“把這說成是一場(chǎng)軍備競(jìng)賽是不幸的,這更像是一場(chǎng)自殺競(jìng)賽。誰先到達(dá)那里并不重要,它意味著人類作為一個(gè)整體可能會(huì)失去對(duì)自己命運(yùn)的控制?!?/p>
更加具有爭(zhēng)議性的一點(diǎn)是,在這項(xiàng)新技術(shù)以光速發(fā)展的同時(shí),大型科技公司卻一直在致力于裁減評(píng)估部署AI相關(guān)倫理問題的團(tuán)隊(duì)員工。今年1月,微軟在萬人級(jí)別大裁員行動(dòng)中,解散了所有的倫理道德與社會(huì)團(tuán)隊(duì)。隨后,Meta、谷歌、亞馬遜和推特等公司都裁減了其“負(fù)責(zé)任的人工智能團(tuán)隊(duì)”(Responsible AI)的成員,這些團(tuán)隊(duì)負(fù)責(zé)為使用AI的消費(fèi)產(chǎn)品提供安全建議。
頗為諷刺的是,推特的“道德人工智能(Ethical AI)”團(tuán)隊(duì),也在裁員中全軍覆沒,彼時(shí)距離馬斯克接手推特只不過剛剛兩個(gè)月。
在AI發(fā)展堪稱光速的當(dāng)下,這么多相關(guān)員工被解雇讓眾多業(yè)內(nèi)人士感到震驚和不解。Alphabet 旗下 DeepMind 的前倫理和政策研究員安德魯·斯科特(Andrew Strait) 表示,“在比以往任何時(shí)候都需要這樣的團(tuán)隊(duì)的時(shí)候,有這么多相關(guān)員工被解雇?!?/p>
“這些東西正在塑造我們的世界,”長期以來批評(píng)AI系統(tǒng)缺陷的企業(yè)家、學(xué)者加里·馬庫斯在接受采訪時(shí)這樣說道,“我們面臨著不負(fù)責(zé)任的企業(yè)、廣泛應(yīng)用、監(jiān)管缺失和大量未知因素引發(fā)的‘完美風(fēng)暴’。”
但同時(shí),馬庫斯也明白,說服更廣泛的科技界同意暫停是很困難的。
圖靈三巨頭之一楊立昆(LeCun)認(rèn)為,所謂“暫停研發(fā)”,不過就是“秘密研發(fā)”罷了,這與一些簽名者所希望的恰恰完全相反。
值得一提的是,此前由于競(jìng)爭(zhēng)立場(chǎng)關(guān)系,楊立昆一直對(duì)ChatGPT甚至聊天機(jī)器人持反對(duì)態(tài)度,他曾直言,“ChatGPT滿嘴胡謅,你們卻對(duì)它如此寬容,但我家的Galactica才出來三天,就被你們罵到下線了?!?/p>
這次因?yàn)檫@份公開信,展露出了與OpenAI冰釋前嫌的信號(hào),也是令人啼笑皆非。
與此同時(shí),馬庫斯認(rèn)為,公開信中提到的“如果不暫停,應(yīng)由政府強(qiáng)制暫停”的可能性也很小,因?yàn)榱⒎ㄕ咴诒O(jiān)管AI方面做得很少。
昨日,美國科技倫理組織人工智能與數(shù)字政策中心(CAIDP)要求美國聯(lián)邦貿(mào)易委員會(huì)(FTC)禁止 OpenAI 發(fā)布新的商業(yè)版 GPT-4,目前后者對(duì)此尚未做出回應(yīng)。
加州共和黨眾議員杰伊·奧伯諾爾特(Jay oberolte)表示,美國政界對(duì)這項(xiàng)技術(shù)了解不多,“你會(huì)驚訝于我花了多少時(shí)間向我的同事解釋人工智能的主要危險(xiǎn)不會(huì)來自邪惡的機(jī)器人,它們的眼睛里會(huì)射出紅色激光?!?/p>
2021年,歐盟政策制定者倒是提出了一項(xiàng)法律,旨在規(guī)范可能造成傷害的AI技術(shù),包括面部識(shí)別系統(tǒng)。該措施預(yù)計(jì)最早將于今年通過,它要求公司對(duì)AI技術(shù)進(jìn)行風(fēng)險(xiǎn)評(píng)估,以確定它們的應(yīng)用將是否影響健康、安全和個(gè)人權(quán)利。
但前谷歌大腦成員、在線教育平臺(tái)Coursera的創(chuàng)始人吳恩達(dá)在政府介入方面,表示了強(qiáng)烈的反對(duì)。他認(rèn)為,讓政府暫停他們不了解的新興技術(shù)是反競(jìng)爭(zhēng)的,這會(huì)樹立一個(gè)可怕先例,是糟糕的創(chuàng)新政策。
“在推進(jìn)技術(shù)發(fā)展的同時(shí),讓我們也對(duì)安全進(jìn)行更多的投資,而不是扼殺進(jìn)步?!眳嵌鬟_(dá)如是呼吁。
參考資料:
《The secret history of Elon Musk, Sam Altman, and OpenAI》-《Semafor》
《馬斯克們的擔(dān)憂并非空穴來風(fēng)?大型科技公司裁減了AI倫理團(tuán)隊(duì)》-華爾街見聞
《Elon Musk, Other AI Experts Call for Pause in Technology’s Development》-《華爾街日?qǐng)?bào)》
《AI Leaders Urge Labs to Halt Training Models More Powerful Than ChatGPT-4》-《紐約時(shí)報(bào)》