文|武略財(cái)經(jīng)
自去年ChatGPT問世以來,AI技術(shù)的進(jìn)展已經(jīng)可以用“日新月異”來形容。技術(shù)的發(fā)展在提升社會(huì)生產(chǎn)效率的同時(shí),也帶來了巨大的不確定性和潛在的風(fēng)險(xiǎn)因素。
近日,美國得克薩斯州奧斯汀分校的團(tuán)隊(duì)基于人工智能技術(shù)開發(fā)出一種解碼器,可將大腦活動(dòng)轉(zhuǎn)化為連續(xù)的文本流,AI首次可以通過非侵入式的方法學(xué)會(huì)“讀心術(shù)”。
根據(jù)這項(xiàng)發(fā)表在《自然神經(jīng)科學(xué)》(Nature Neuroscience)雜志上的實(shí)驗(yàn)結(jié)果,GPT人工智能大模型感知語音的準(zhǔn)確率可高達(dá)82%,令人驚嘆。
隨著人工智能技術(shù)突飛猛進(jìn)的發(fā)展,技術(shù)的風(fēng)險(xiǎn)以及如何對此加以監(jiān)管,成為越來越受關(guān)注的話題。
就連一生從事神經(jīng)網(wǎng)絡(luò)學(xué)術(shù)研究的圖靈獎(jiǎng)得主、有“AI教父”之稱的計(jì)算機(jī)科學(xué)家杰弗里?辛頓(Geoffrey Hinton)近日也對人工智能的發(fā)展產(chǎn)生了新的思考。為了警告AI技術(shù)潛在的風(fēng)險(xiǎn)而又免于利益沖突,辛頓本周公開宣布,他已離開工作了十余年的谷歌,轉(zhuǎn)而成為AI技術(shù)的“吹哨人”。
辛頓表示:“我現(xiàn)在傾向于認(rèn)為,我們正在創(chuàng)造的數(shù)字智能與生物智能非常不同?!?/p>
類似于ChatGPT這樣的聊天機(jī)器人正在對各行各業(yè)形成顛覆性的效應(yīng)。這種聊天機(jī)器人基于AI大模型,能夠迅速地學(xué)習(xí)知識(shí)。事實(shí)上,在某些方面,它們的能力已經(jīng)超越了人類。
“如果我有1000個(gè)這樣的數(shù)字代理(AI agent),那么每當(dāng)一個(gè)代理學(xué)習(xí)如何做一件事情的時(shí)候,其他所有的代理也都會(huì)立即知道,生物智能是不具備這樣的能力的?!毙令D解釋道,“因此,相同數(shù)字代理的集合可以獲得比任何單個(gè)生物智能都多得多的知識(shí),這就是為什么GPT-4比任何人都知道的多?!?/p>
而曾擔(dān)任OpenAI安全研究員保羅·克里斯蒂亞諾也發(fā)出警告,提醒人們?nèi)斯ぶ悄芸赡茏罱K會(huì)導(dǎo)致人類終結(jié)。據(jù)悉,保羅·克里斯蒂亞諾在一個(gè)播客節(jié)目中說道:“我認(rèn)為人工智能取代人類的可能性大約為10-20%,我們需要非常嚴(yán)肅地對待這個(gè)問題?!彼J(rèn)為,AI消滅人類的最可能方式是將日常生活中部署的所有AI聯(lián)合起來,而不是突然消滅人類。人類的終結(jié)不是一場突如其來的事件,而是人工智能逐漸地崛起,其通過AI控制自動(dòng)駕駛汽車、無人機(jī)等科技領(lǐng)域逐漸毀滅人類。不要覺得這是危言聳聽,當(dāng)AI超越人類智商閾值時(shí),這一切皆有可能。
如果說這些都是對未來的擔(dān)憂,那么AI在現(xiàn)在已經(jīng)造成一些實(shí)質(zhì)上的沖擊。OpenAI公司3月曾發(fā)布一篇論文,預(yù)言美國80%的工作都會(huì)受到AI的影響。根據(jù)高盛的預(yù)測,生成式AI會(huì)導(dǎo)致勞動(dòng)力市場受到重大沖擊,使全球3億個(gè)工作崗位實(shí)現(xiàn)自動(dòng)化,并且美國7%的工作崗位將被AI取代。
AI大模型的能力已經(jīng)開始改變一些行業(yè),并對企業(yè)業(yè)務(wù)產(chǎn)生了實(shí)質(zhì)性的影響,尤其是在教育行業(yè),AI的影響體現(xiàn)在企業(yè)的財(cái)報(bào)中。
5月2日,總部位于美國加州的在線教育公司齊格(Chegg)股價(jià)暴跌50%。該公司CEO丹?羅森斯維格(Dan Rosensweig)在與分析師的財(cái)報(bào)電話會(huì)議上表示:“我們現(xiàn)在開始相信ChatGPT正在對我們的新客戶增長率產(chǎn)生影響。”
這一警告也令其他公司感到不安,英國教育上市公司培生當(dāng)天股價(jià)下跌15%,語言學(xué)習(xí)平臺(tái)多鄰國(Duolingo)股價(jià)下跌10%。
為了應(yīng)對ChatGPT帶來的挑戰(zhàn),上個(gè)月,Chegg基于AI大模型推出了一個(gè)叫做CheggMate的應(yīng)用程序,學(xué)生能夠通過與AI交談來訪問量身定制的內(nèi)容。
由于擔(dān)心“AI會(huì)讓學(xué)生作弊”,全球的一些高校已經(jīng)禁止了ChatGPT在校園里的使用。而一些企業(yè)出于對安全隱私的保護(hù),也禁止員工使用ChatGPT等生成式AI工具。
最近幾個(gè)月,包括高盛在內(nèi)的大公司都已禁止或限制使用生成人工智能AI平臺(tái)。最新加入的是三星電子。三星電子周二表示,在一份內(nèi)部文件中指出生成式AI技術(shù)的“濫用案例”后,它已禁止部分員工使用ChatGPT等AI工具。
三星稱正在努力尋求確保員工在安全環(huán)境中使用生成式人工智能服務(wù)的方法,但在這些措施準(zhǔn)備就緒之前,暫時(shí)禁止在公司擁有的計(jì)算機(jī)上使用生成式人工智能服務(wù)。
而且,生成式AI的出現(xiàn)已經(jīng)讓網(wǎng)絡(luò)充斥著真假難辨的內(nèi)容。反虛假信息機(jī)構(gòu)NewsGuard近日的一項(xiàng)調(diào)查,更是有了驚人的發(fā)現(xiàn)。統(tǒng)計(jì)顯示,該機(jī)構(gòu)監(jiān)測到的偽裝成“記者”的聊天機(jī)器人竟然運(yùn)行著近50個(gè)人工智能生成的“內(nèi)容農(nóng)場”。
研究人員發(fā)現(xiàn),這些網(wǎng)站大量生產(chǎn)與政治、健康、環(huán)境、金融和技術(shù)相關(guān)的內(nèi)容,生成速度驚人,并充斥著商業(yè)廣告。
Newsguard的研究人員表示:“有些’記者’每天發(fā)表數(shù)百篇文章,一些內(nèi)容充斥著虛假敘述,并且?guī)缀跛械膬?nèi)容都以乏味的語言和重復(fù)的短語為特征,這是人工智能的標(biāo)志。”
網(wǎng)絡(luò)空間的混亂引發(fā)了業(yè)內(nèi)對人工智能風(fēng)險(xiǎn)的激辯,批評人士認(rèn)為,大型科技公司爭相開展基于生成式人工智能(AIGC)的產(chǎn)品開發(fā)活動(dòng),“這是在與危險(xiǎn)賽跑”。
特斯拉CEO馬斯克多次重申,應(yīng)該對人工智能保持謹(jǐn)慎。他呼吁政府進(jìn)行監(jiān)管,因?yàn)槿斯ぶ悄芸赡軐姌?gòu)成威脅。
谷歌CEO皮查伊也表示,所有公司的產(chǎn)品都將受到人工智能快速發(fā)展的影響,社會(huì)需要為已經(jīng)推出的技術(shù)做好準(zhǔn)備。但他表示:“我們的適應(yīng)速度與技術(shù)發(fā)展的速度相比,似乎還不太匹配?!?/p>
各國監(jiān)管機(jī)構(gòu)也早已坐不住了。白宮官員近日向美國科技公司發(fā)出邀請,希望與行業(yè)企業(yè)領(lǐng)導(dǎo)者共同探討針對人工智能的監(jiān)管問題。參加的科技公司包括谷歌、微軟和OpenAI等公司高管。美國總統(tǒng)拜登稱,希望科技公司在向公眾提供產(chǎn)品之前必須確保其產(chǎn)品安全。
歐洲消費(fèi)者組織(BEUC)也呼吁歐盟消費(fèi)者保護(hù)機(jī)構(gòu)關(guān)注人工智能對消費(fèi)者的潛在危害。上個(gè)月,歐洲數(shù)據(jù)保護(hù)委員會(huì)已經(jīng)成立了一個(gè)專門針對ChatGPT的工作組,并朝著制定人工智能隱私規(guī)則的共同政策邁出的重要一步。
歐盟立法者還在討論如何引入歐盟人工智能法案,并且生成式AI(AIGC)成為最受關(guān)注的內(nèi)容之一。歐盟委員會(huì)將于5月11日對相關(guān)協(xié)議進(jìn)行投票,如果通過,將進(jìn)入下一階段的三方談判,屆時(shí)歐盟成員國將與歐盟委員會(huì)以及歐洲議會(huì)就談判內(nèi)容進(jìn)行辯論。
保羅·克里斯蒂亞諾也成立了新非營利組織Alignment Research Center致力于人工智能對齊的概念,即讓機(jī)器的動(dòng)機(jī)與人類的動(dòng)機(jī)保持一致。該概念早在2018年就被廣泛定義,并被認(rèn)為對于防止人工智能毀滅人類的可能性至關(guān)重要。
專家認(rèn)為,從國家的層面來講,要加快AI相關(guān)領(lǐng)域的立法,特別在金融、安全、健康等領(lǐng)域嚴(yán)格監(jiān)管,厘清AI的設(shè)計(jì)者、使用者、內(nèi)容生成者的權(quán)責(zé)關(guān)系,完善AI決策的問責(zé)機(jī)制,保護(hù)大眾合法權(quán)益;而從社會(huì)層面來講,應(yīng)加強(qiáng)AI技術(shù)的監(jiān)管,推進(jìn)AI研發(fā)者遵守倫理準(zhǔn)則與規(guī)范AI的發(fā)展。