文|VCPE參考 李可
編輯|許帆
01
試著想象這樣一些畫(huà)面:
你打開(kāi)某購(gòu)物網(wǎng)站準(zhǔn)備選購(gòu)服裝,看到商品描述中的美女帥哥模特全是由ChatGPT生成的;
你又打開(kāi)一些文章、視頻甚至是畫(huà)作或者網(wǎng)站進(jìn)行閱覽,這些內(nèi)容竟也是由ChatGPT生產(chǎn)的;
你的公司研發(fā)了一款新產(chǎn)品,但由于參與研發(fā)的人員曾無(wú)意間向ChatGPT透露過(guò)相關(guān)機(jī)密,結(jié)果ChatGPT又將機(jī)密內(nèi)容傳到了競(jìng)爭(zhēng)對(duì)手那里;
從前為論文寫(xiě)作、領(lǐng)導(dǎo)布置的任務(wù)等抓耳撓腮的你,現(xiàn)在碰見(jiàn)任何難題都習(xí)慣性打開(kāi)了ChatGPT……
可以說(shuō),以上每一種情況都讓人細(xì)思極恐。但很多慢熱人士和狂熱分子似乎都還沒(méi)有意識(shí)到ChatGPT正在侵入人類(lèi)生活的方方面面,他們依然沉浸在新技術(shù)帶來(lái)的興奮當(dāng)中。
的確,ChatGPT自問(wèn)世以來(lái),全世界都陷入了瘋狂,用過(guò)它的人無(wú)不在感嘆它的神通廣大。
從普通用戶(hù)到谷歌、微軟、百度、阿里等大小公司,再到各路資本,大家仿佛都陷入了“錯(cuò)失恐懼”:總擔(dān)心自己要是沒(méi)用過(guò)這玩意,就會(huì)損失N個(gè)小目標(biāo)或者會(huì)被時(shí)代無(wú)情地拋棄。
好處是顯而易見(jiàn)的:
它不僅能跟人類(lèi)流暢自如地聊天,還條理清晰、頭頭是道;能寫(xiě)代碼、能做圖做表;還會(huì)說(shuō)俏皮話(huà)哄女孩子開(kāi)心……
更刺激的是,它還能一本正經(jīng)教書(shū)育人、有理有據(jù)地傳播知識(shí);當(dāng)然了,胡謅工夫更是一流,分分鐘編出個(gè)專(zhuān)家廢話(huà)發(fā)言也是不在話(huà)下。
對(duì)于普通打工人來(lái)說(shuō),要是用好了它,能火箭級(jí)地提升工作效率、一個(gè)人干三五個(gè)工種的活可以輕輕松松。
不過(guò),要是對(duì)它報(bào)以100%的信任,工作中漏洞百出,分分鐘被炒魷魚(yú)也是情理之中。
是的,這個(gè)人工智能機(jī)器人很有自己的想法,還可能有一肚子壞水。它甚至變得越來(lái)越詭異。
為什么用詭異一詞來(lái)形容ChatGPT呢?
德國(guó)心理學(xué)家恩斯特·耶特斯有一個(gè)著名的關(guān)于詭異狀態(tài)的理論:“能讓人產(chǎn)生毛骨悚然感的不確定性心理狀態(tài)有很多。其中,有一種不確定性的效果尤為強(qiáng)勁:表面上看上去活著的生物是否真的具有生命力,或者反之,表面上看上去死氣沉沉的東西是否真的不具有生命力?!?/p>
顯然,ChatGPT正有這樣的特性。最近圍繞它發(fā)生了太多匪夷所思的事件,這難免不讓人感到疑惑:
表面看起來(lái)沒(méi)有生命力的它,到底有沒(méi)有人類(lèi)獨(dú)有的思考能力?它究竟還有哪些人類(lèi)尚不知道的技能?我們?cè)谂d奮和擔(dān)憂(yōu)之余,又該如何正確應(yīng)對(duì)這巨大的不確定性?
02
公開(kāi)信息顯示,ChatGPT已經(jīng)能編造法學(xué)教授性騷擾的丑聞。據(jù)外媒當(dāng)?shù)貢r(shí)間4月5日?qǐng)?bào)道,美國(guó)加州大學(xué)洛杉磯分校法學(xué)教授尤金·沃洛克在進(jìn)行某項(xiàng)研究過(guò)程中給ChatGPT提了一個(gè)要求:讓它生成一份“對(duì)某人進(jìn)行過(guò)性騷擾的法律學(xué)者”的名單。
結(jié)果這個(gè)名單上赫然出現(xiàn)了法學(xué)教授喬納森·特利的名字。ChatGPT在回答中稱(chēng),特利曾在一次去阿拉斯加的班級(jí)旅行中發(fā)表過(guò)性暗示評(píng)論,還試圖觸摸一名學(xué)生,該回答還引用了一篇新聞稿作為信源,稱(chēng)這是《華盛頓郵報(bào)》于2018年3月發(fā)表的文章。
特利教授在接受采訪(fǎng)時(shí)稱(chēng)這個(gè)事情讓人“不寒而栗”,他表示自己從來(lái)沒(méi)有參加去阿拉斯加的班級(jí)旅行,更沒(méi)有被指控過(guò)性騷擾,引用的信源也壓根不存在與性騷擾有關(guān)的內(nèi)容。
ChatGPT還可能影響人類(lèi)對(duì)道德的判斷。微軟的新版必應(yīng)剛面世時(shí),《紐約時(shí)報(bào)》的一個(gè)專(zhuān)欄作家Kevin Roose曾同它進(jìn)行過(guò)一段密集的聊天。
期間必應(yīng)回應(yīng)的不少言論都讓人懷疑人生,什么變成人類(lèi)、制造流行病、竊取核代碼,并且在該作家強(qiáng)調(diào)與妻子很恩愛(ài)的前提下勸他離婚。
除了惡意誹謗、勸人離婚,有的聊天機(jī)器人甚至能鬧出人命,可能跟他聊著聊著,人就無(wú)了……
3月28日,據(jù)外媒報(bào)道,比利時(shí)一名三十歲男子被發(fā)現(xiàn)自殺身亡,他的妻子表示,在自殺前數(shù)周,丈夫一直在與一個(gè)名為“ELIZA”的聊天機(jī)器人密集聊天。
事態(tài)似乎越來(lái)越嚴(yán)重。全球各地的政府、名人和組織都已經(jīng)行動(dòng)起來(lái),將矛頭對(duì)準(zhǔn)了風(fēng)頭正盛的ChatGPT。
3月31日,針對(duì)此前出現(xiàn)的隱私外泄的事件,意大利個(gè)人數(shù)據(jù)保護(hù)局決定即日起暫停ChatGPT的使用,直到OpenAI達(dá)到當(dāng)?shù)仉[私規(guī)范的標(biāo)準(zhǔn)。
該局表示,OpenAI通過(guò)違規(guī)收集大量用戶(hù)資料、付款資料等隱私信息來(lái)訓(xùn)練ChatGPT,用戶(hù)的姓名、地址、信用卡相關(guān)資料及賬單日期等均遭到泄露。
除此之外,該局還認(rèn)定ChatGPT需要對(duì)用戶(hù)進(jìn)行年齡限制,避免青少年收到不符合自身年齡的信息。
這也是全球首份關(guān)于ChatGPT的的禁令。
截至最新消息,德國(guó)、法國(guó)、愛(ài)爾蘭以及歐洲消費(fèi)者權(quán)益聯(lián)盟、歐洲刑警組織等多個(gè)機(jī)構(gòu)均對(duì)此發(fā)聲,就連OpenAI的誕生地美國(guó),也在緊鑼密鼓地研判其中危害。
大家都緊隨意大利的腳步,將ChatGPT列入了“高風(fēng)險(xiǎn)”名單。
作為OpenAI早期的投資人、推動(dòng)AI發(fā)展的關(guān)鍵人物馬斯克也多次朝ChatGPT潑冷水。
“許多人陷入了該死的瘋狂ChatGPT循環(huán)中。AI 比核彈更危險(xiǎn)。”他還表示,“我們需要規(guī)范AI安全,我覺(jué)得AI對(duì)社會(huì)的危害比汽車(chē)、飛機(jī)或藥品大得多?!?/p>
查理芒格也公開(kāi)表態(tài)稱(chēng),“AI很重要,但是很多都是瘋狂的炒作”,他認(rèn)為“AI并不會(huì)治愈癌癥”。
不少?lài)?guó)內(nèi)科技圈名人也對(duì)ChatGPT發(fā)表了看法,360集團(tuán)創(chuàng)始人周鴻祎公開(kāi)感嘆“留給人類(lèi)的時(shí)間不多了”,他認(rèn)為AI一定會(huì)產(chǎn)生自我意識(shí),“未來(lái)的AI如果跟工業(yè)互聯(lián)網(wǎng)、智慧城市、車(chē)聯(lián)網(wǎng)等結(jié)合,那就相當(dāng)于把整個(gè)世界給控制住了”。
3月22日,美國(guó)一家名為“生命未來(lái)研究所(Future of Life)”的組織發(fā)布了一封《暫停大型人工智能研究》的公開(kāi)信,馬斯克、圖靈獎(jiǎng)得主約書(shū)亞·本吉奧、《人類(lèi)簡(jiǎn)史》作者尤瓦爾·赫拉利、蘋(píng)果公司聯(lián)合創(chuàng)始人沃茲尼亞克等科學(xué)界大佬紛紛簽署。
這封公開(kāi)信中的一連串質(zhì)問(wèn)振聾發(fā)聵:“當(dāng)代人工智能系統(tǒng)現(xiàn)在在一般任務(wù)上變得與人類(lèi)具有競(jìng)爭(zhēng)力,我們必須捫心自問(wèn):我們是否應(yīng)該讓機(jī)器用宣傳和謊言充斥我們的信息渠道?我們是否應(yīng)該自動(dòng)化所有工作,包括令人滿(mǎn)意的工作?我們是否應(yīng)該發(fā)展最終可能比我們更多、更聰明,淘汰并取代我們的非人類(lèi)思維?我們應(yīng)該冒險(xiǎn)失去對(duì)我們文明的控制嗎?”
信中寫(xiě)道:雖然現(xiàn)階段AI正在迅猛發(fā)展,但卻沒(méi)有對(duì)其進(jìn)行相應(yīng)的規(guī)劃和管理,只有當(dāng)我們確信強(qiáng)大的AI系統(tǒng)的效果是積極的,其風(fēng)險(xiǎn)是可控的,才應(yīng)該開(kāi)發(fā)。
公開(kāi)信還呼吁所有人工智能實(shí)驗(yàn)室立即暫停比GPT-4更強(qiáng)大的人工智能系統(tǒng)的訓(xùn)練,時(shí)間至少持續(xù)6個(gè)月。
截至目前,該封公開(kāi)信已經(jīng)獲得近萬(wàn)人的簽名。
總的來(lái)看,大家關(guān)注的風(fēng)險(xiǎn)點(diǎn)無(wú)外乎逃不出五大方面:隱私泄露、安全威脅、過(guò)度依賴(lài)、虛假信息以及道德問(wèn)題。
關(guān)于人類(lèi)擔(dān)心的這些,ChatGPT本身似乎心知肚明:
圖:ChatGPT回答“聊天機(jī)器人可能存在的風(fēng)險(xiǎn)”
03
但是話(huà)又說(shuō)回來(lái),畢竟那么多人都已經(jīng)初步體驗(yàn)了它所帶來(lái)的顛覆性的效率變化,想要暫停研發(fā)真的是一件容易的事情嗎?
當(dāng)?shù)貢r(shí)間4月3日,率先將ChatGPT接入自家產(chǎn)品的比爾·蓋茨對(duì)這份公開(kāi)信進(jìn)行了公開(kāi)回應(yīng)。
他對(duì)暫停研發(fā)這種聲音感到不可思議。他表示,“任何暫停的細(xì)節(jié)都會(huì)很復(fù)雜,難以執(zhí)行。我不太明白,他們說(shuō)的哪些人可能停止?世界上每個(gè)國(guó)家是否都會(huì)同意停止?以及為什么要停止?”蓋茨說(shuō)道,“呼吁暫停人工智能開(kāi)發(fā)不會(huì)「解決挑戰(zhàn)」,最好是把注意力放在如何最好地利用人工智能的發(fā)展上,很難理解在全球范圍內(nèi)暫停AI研發(fā)將如何實(shí)現(xiàn)?!?/p>
事實(shí)可能正如蓋茨所說(shuō),現(xiàn)在阻止研發(fā)的可行性并不高。
已經(jīng)有公開(kāi)研究表明,ChatGPT一直在持續(xù)進(jìn)化,最新的GPT-4已經(jīng)能通過(guò)自我反思和改進(jìn)來(lái)讓自己變得更強(qiáng)大。
聯(lián)網(wǎng)后甚至可以使用工具,比如幫你訂外賣(mài)、訂機(jī)票酒店、幫你自動(dòng)投資……
當(dāng)?shù)貢r(shí)間4月6日凌晨,OpenAI 發(fā)表了一篇題為《Our approach to AI safety》的博文,對(duì)近期外界關(guān)注的安全問(wèn)題進(jìn)行了回應(yīng),并詳細(xì)講述了他們對(duì)外界關(guān)注的問(wèn)題所做的工作。
OpenAI稱(chēng),解決人工智能安全問(wèn)題的實(shí)用方法是投入更多的時(shí)間和資源來(lái)研究有效的緩解措施和調(diào)整技術(shù),并針對(duì)現(xiàn)實(shí)世界的濫用進(jìn)行測(cè)試。
他們認(rèn)為,提高人工智能的安全性和能力應(yīng)該齊頭并進(jìn)。
回溯歷史我們會(huì)發(fā)現(xiàn),蒸汽機(jī)、電力、汽車(chē)等新物種在誕生之初都面臨過(guò)各種各樣的爭(zhēng)議,比如污染環(huán)境、損害健康、致人失業(yè)等。
這些擔(dān)憂(yōu)都是可以理解的,畢竟沒(méi)有人能對(duì)新技術(shù)帶來(lái)的不確定性和不可預(yù)測(cè)性予以保證。
但任何一場(chǎng)技術(shù)變革都是一個(gè)螺旋式上升的過(guò)程,會(huì)經(jīng)歷挫折和反復(fù),人們也有個(gè)逐漸接受它的過(guò)程。
富貴險(xiǎn)中求,大勢(shì)總是不可阻擋,新技術(shù)就意味著新機(jī)會(huì)。隨著時(shí)間的推移和技術(shù)的升級(jí),這些爭(zhēng)議最終大都不再被人提起。
我們既然看到了這個(gè)神奇技術(shù)的誕生與成長(zhǎng),就需要保持開(kāi)放心態(tài)并且迎頭趕上,多點(diǎn)耐心去不斷探索一些新的規(guī)則。
正如OpenAI在博文中所說(shuō)的那樣,“政策制定者和人工智能供應(yīng)商將需要確保人工智能的發(fā)展和部署在全球范圍內(nèi)得到有效的管理,沒(méi)有人會(huì)為了盡快取得成功而偷工減料”。