正在閱讀:

ChatGPT替代的是不會(huì)用AI的人

掃一掃下載界面新聞APP

ChatGPT替代的是不會(huì)用AI的人

ChatGPT能幫忙做副業(yè)、寫論文,但為何還是取代不了人類?

文 | 真故研究室 林秋藝

編輯 | 龔正

ChatGPT已經(jīng)在科技圈火熱一月有余,但仍有很多大眾關(guān)心,ChatGPT于個(gè)人的職業(yè)、學(xué)業(yè)有何價(jià)值、自己該如何與ChatGPT時(shí)代相處。

也有很多人腦洞大開提問,ChatGPT能幫自己做副業(yè)嗎?能成為自己的良師益友、解決自己的精神內(nèi)耗嗎?另外也有瞧不上ChatGPT的聲音。前一陣,ChatGPT連小學(xué)數(shù)學(xué)題都算不對(duì)的新聞也傳播了一番。一些家長形成了先行印象,認(rèn)為這哪里算得上AI。

對(duì)此,我們對(duì)話了中國計(jì)算機(jī)學(xué)會(huì)科學(xué)普及工作委員會(huì)主任助理、香港中文大學(xué)(深圳)大數(shù)據(jù)研究院副研究員崔原豪博士。他也是電影《流浪地球2》中人工智能領(lǐng)域科學(xué)顧問。請他分享了ChatGPT的諸多硬核洞察。

崔原豪的核心觀點(diǎn)如下:

1、AI替代的不是人類,而是不會(huì)使用AI的人類。關(guān)注ChatGPT的原因在于,我們應(yīng)該了解將來如何使用ChatGPT相關(guān)的AI產(chǎn)品去提升自己的工作效率,這是未來工作中的最優(yōu)選擇。當(dāng)世界在進(jìn)步時(shí),一成不變就將形成數(shù)字鴻溝,從而影響自身發(fā)展。

2、機(jī)器在計(jì)算能力上會(huì)高于人類,但機(jī)器智能始終無法如人類智能一樣思考。迄今為止,還沒有發(fā)現(xiàn)AI有超越人類智能或者企圖反叛人類的苗頭。評(píng)價(jià)機(jī)器是否智能只有通過圖靈測試,但真正完備的圖靈測試無法實(shí)現(xiàn)。

3、ChatGPT目前還無法分辨信息的真實(shí)性。下一步,需要在數(shù)據(jù)層面集中增加更多關(guān)于世界常識(shí)的標(biāo)注數(shù)據(jù);在它原有的記憶上更新,因?yàn)殡S著時(shí)間的進(jìn)程,某些事實(shí)和知識(shí)都會(huì)發(fā)生變化,它需要不斷更新。

以下為對(duì)話實(shí)錄:

Q1:您第一次接觸ChatGPT是什么時(shí)候?使用體驗(yàn)如何?

A1:大概是在2個(gè)月前,第一次使用了ChatGPT。當(dāng)時(shí)用它做了一篇英文論文的潤色,讓ChatGPT幫我推敲其中的語法,結(jié)果超乎我想象的好。

我告訴它:你現(xiàn)在是一個(gè)英語翻譯家,我希望你把我說的話翻譯成優(yōu)雅且簡練的英語句子,不要作過多解釋,也不要改變它的原意。

這里每一個(gè)“要”或“不要”都是一個(gè)指示。在這幾條指示的要求下,它就會(huì)把你輸入的一段英語文本變得更加優(yōu)美簡潔。

這比以前用的Grammarly(英語語法檢測)潤色出來的效果好很多。專業(yè)性上,ChatGPT會(huì)做很多專業(yè)術(shù)語的替換,這是之前的語法檢測工具很少能做到的;文法方面,被它替換后的詞匯和語法相較之前會(huì)更優(yōu)雅一些。

Q2:現(xiàn)在對(duì)ChatGPT的復(fù)用率如何?

A2:最近更多的是用它來做論文潤色、英語翻譯或其他語言翻譯,有時(shí)候也會(huì)逗它玩一會(huì)兒。

它的使用過程還是挺有趣的,像是工作助手,大幅度地減少了我的工作時(shí)間,提高了效率。

Q3:請教一個(gè)根源性的問題,在人工智能中,大語言模型扮演著怎樣的角色?

A3:要了解大模型的角色,我們首先要了解機(jī)器如何評(píng)價(jià)一段文本的好壞。

舉個(gè)例子,《流浪地球2》里有一句經(jīng)典臺(tái)詞“我相信人類的勇氣,可以跨越時(shí)間,跨越每一個(gè)歷史、當(dāng)下和未來。”

假如我把句子順序調(diào)整一下,“我相信勇氣的人類,可以跨越時(shí)間、當(dāng)下、未來,跨越每一個(gè)歷史。”大家會(huì)覺得有一點(diǎn)奇怪,但還是能聽出來我說的是什么意思。

但當(dāng)我把它整體打亂,變成“人類勇氣未來,時(shí)間當(dāng)下跨越每一個(gè),可以我相信的歷史”,你就會(huì)覺得無法理解。

我們會(huì)覺得第一個(gè)句子非常合理,最后一個(gè)不合理的原因是,在我們?nèi)祟愃械恼Z言里,最后一個(gè)句子出現(xiàn)的概率非常低。

從統(tǒng)計(jì)角度來看,在“人類語言模型”里,第一句話發(fā)生的概率最大,第二句話次之,第三句話幾乎不可能發(fā)生。這就是文本合理性的量化。

機(jī)器就是在它的訓(xùn)練集中,獲得文本合理性的量化指標(biāo)。如果訓(xùn)練集足夠泛化到含括所有的語言模型,那么機(jī)器就有資格評(píng)價(jià)這段文本是不是符合人類語法。

當(dāng)你讓它生成一段新的文本時(shí),它會(huì)按照人類最常用、最喜歡的方式生成,從語法結(jié)構(gòu)上來看,你會(huì)覺得它說得很有道理,但事實(shí)層面卻不一定對(duì)。

也就是說,語言模型本身就是自然語言處理的一個(gè)領(lǐng)域基石。

語言模型的好壞,決定了整個(gè)下游任務(wù)處理的好壞,因?yàn)槭撬谠u(píng)價(jià)語言是不是合理。如果剛開始評(píng)價(jià)指標(biāo)就錯(cuò)了,那么后邊的所有東西都會(huì)變成錯(cuò)的。所以語言模型是根本。

Q4:有聲音認(rèn)為,ChatGPT是一個(gè)顛覆式的創(chuàng)新,它的顛覆性體現(xiàn)在哪?

A4:我個(gè)人覺得顛覆性其實(shí)體現(xiàn)在,它變成了一個(gè)可以直接面對(duì)用戶的產(chǎn)品。

以前大家做大模型的目的,第一是可以完成更多的自然語言處理任務(wù),第二個(gè)是可以在每個(gè)細(xì)分的載源處理任務(wù)上可以去刷新,去達(dá)到更高的進(jìn)度。包括谷歌的大模型、微軟的大模型,還有智源研究院的大模型。

但是很少有人去站在用戶的角度去想:我們是不是可以去做一個(gè)大家都可以用得起來的人工智能產(chǎn)品。

以前所有的人工智能產(chǎn)品,比如小冰、小愛同學(xué),或者是手機(jī)里邊的圖像處理、圖像增強(qiáng)的算法也都是內(nèi)嵌在其他產(chǎn)品里邊的,并沒有真正打包成一個(gè)完全的人工智能的產(chǎn)品去賣給用戶。

現(xiàn)在ChatGPT就是每個(gè)人都可以用得起來一個(gè)產(chǎn)品,大家都可以接受他能做到什么程度,而且它還可以接入更多人工智能的算法,包括圖像和視頻領(lǐng)域的算法。

Q5:許多用戶實(shí)測之后發(fā)現(xiàn),ChatGPT在與人溝通上雖然已經(jīng)相當(dāng)?shù)刂悄芑袝r(shí)“也會(huì)一本正經(jīng)的胡說八道”,從技術(shù)角度上看,造成這一結(jié)果的原因是什么?

A5:主要原因是ChatGPT還不懂什么是“事實(shí)”。

ChatGPT的訓(xùn)練過程第一步是預(yù)訓(xùn)練。預(yù)訓(xùn)練是采用無監(jiān)督訓(xùn)練的方法,也就是把網(wǎng)絡(luò)上的數(shù)據(jù)包括其他的東西,交給它來進(jìn)行自我訓(xùn)練。

這造成的一個(gè)結(jié)果就是,它不知道這些東西哪一個(gè)是真的,哪一個(gè)是錯(cuò)誤的。

因?yàn)轭A(yù)訓(xùn)練模型是一個(gè)語言模型,它的主要目的是去了解人類的語言習(xí)慣,包括單詞之間的構(gòu)造關(guān)系,只要學(xué)足夠多的文字語料,這些語義信息都是可以被抽取出來的。

但是抽取出來的關(guān)于世界的常識(shí),它自己是無法評(píng)判真實(shí)性的,需要人類來進(jìn)行標(biāo)注。

下一步,如果它要變得更能分辨事實(shí)的話,就需要再加入很多關(guān)于世界常識(shí)的標(biāo)注數(shù)據(jù),人類需要對(duì)哪一些是真的世界常識(shí)去做標(biāo)注。

另外一個(gè),它需要做一個(gè)記憶上更新,因?yàn)橛泻芏嗍聦?shí)是沖突的,隨著時(shí)間的進(jìn)程,某些事實(shí)和知識(shí)會(huì)發(fā)生變化,它需要不斷更新。

Q6:ChatGPT接下來應(yīng)該在哪些方面做改進(jìn),來變得更為智能?

A6:這個(gè)還是要從智能本身的定義來想,什么叫“智能”?

我一直覺得在這個(gè)領(lǐng)域里邊沒有一個(gè)普適的評(píng)價(jià)基準(zhǔn),去評(píng)價(jià)機(jī)器或者大語言模型本身的能力。現(xiàn)在是根據(jù)每一個(gè)細(xì)分任務(wù)去評(píng)價(jià)它的準(zhǔn)確度,但是準(zhǔn)確度其實(shí)跟智能沒有太大關(guān)系。

要評(píng)價(jià)它是否智能就需要通過圖靈測試,但是真正完備的圖靈測試是實(shí)現(xiàn)不了的,因?yàn)樗蟮氖侨伺c機(jī)器不斷交互,這是一個(gè)無限長的過程,基本上無法實(shí)現(xiàn)。

如果是限定時(shí)間內(nèi),人和機(jī)器的交互,其實(shí)是有可能會(huì)被機(jī)器騙過去的。

比如,你和一個(gè)大語言模型聊5分鐘,如果話題比較窄,可能你就會(huì)覺得它已經(jīng)達(dá)到人類的標(biāo)準(zhǔn)了。

但是如果你跟它聊得非常寬泛,把范圍擴(kuò)展到它未曾接觸過的領(lǐng)域,或者你跟它聊大概一個(gè)月左右,你可能就會(huì)覺得它確實(shí)不是一個(gè)人。

所以,如果是從標(biāo)準(zhǔn)的測試層面來說,現(xiàn)有的大語言模型應(yīng)該都無法通過測試。

Q7:像人腦一樣去思考和創(chuàng)造,是否是科學(xué)界對(duì)ChatGPT定性的終極目標(biāo)?

A7:大方向上是朝著“人腦”這個(gè)方向努力的,但是在真正的研究過程中其實(shí)反而沒想這么多。

比如,在ChatGPT的研究過程中,最開始的時(shí)候機(jī)器是需要人的提示的,你需要給它一個(gè)例子,它會(huì)按照這個(gè)例子把你想要的內(nèi)容生成出來,但是現(xiàn)在已經(jīng)演變到你直接給它下命令,它就能生成的程度。

所以,實(shí)際上它確實(shí)是在朝著一個(gè)既定的目標(biāo)去研究的,但是這個(gè)既定目標(biāo)可能并不一定是為了更智能,也可能是為了讓它變得更容易使用。

Q8:人類隨年齡越長越充滿智慧,ChatGPT也會(huì)隨著年限增長,變得更聰明嗎?

A8:我覺得這個(gè)不一定,因?yàn)橹R(shí)是需要更新的。

人類大腦有一個(gè)遺忘的功能,這非常重要,因?yàn)榇竽X的儲(chǔ)存容量是有限的,現(xiàn)在我們每天都會(huì)接收到很多的信息,從視覺、聽覺、嗅覺,包括皮膚都可以接受到非常細(xì)微的刺激。

人類的大腦有注意力機(jī)制和遺忘機(jī)制,我們會(huì)注意到我們感興趣的信息,也會(huì)遺忘掉很多細(xì)節(jié)信息。這兩個(gè)機(jī)制保證了人類大腦不會(huì)被過多的信息沖垮。

對(duì)于大語言模型來說,現(xiàn)在注意力機(jī)制已經(jīng)有了,但遺忘機(jī)制還沒有。

現(xiàn)在的大語言模型還只是一個(gè)“新生”的階段,它的訓(xùn)練并不是像我們?nèi)祟愒诂F(xiàn)實(shí)生活中實(shí)時(shí)訓(xùn)練,而是在訓(xùn)練之后使用一段時(shí)間,然后再更新、再訓(xùn)練。

在使用過程中訓(xùn)練是我們?nèi)祟惇?dú)有的能力,而大語言模型無法在使用過程中訓(xùn)練,這也是未來大語言模型需要解決的問題。

Q9:有聲音認(rèn)為,國內(nèi)模型開發(fā)公司的研究進(jìn)度要比海外公司落后2年左右,這個(gè)觀點(diǎn)您認(rèn)同嗎?差距主要在哪?

A9:我個(gè)人覺得大家都比Open AI要落后2年,不只是國內(nèi),國外其他公司也一樣。

因?yàn)镺pen AI選擇的這條路線,在ChatGPT發(fā)布之前,大家都覺得它只是一條路線而已,都不覺得它會(huì)是一條通往未來通用人工智能的標(biāo)準(zhǔn)路線。

ChatGPT出現(xiàn)之后,現(xiàn)在注冊用戶已經(jīng)超過1億了,這是以前從來沒有過的一個(gè)數(shù)字。這個(gè)現(xiàn)象讓大家覺得,朝這個(gè)方向做通用人工智能是完全有可能的,而且ChatGPT也展示了潛力。

Q10:現(xiàn)在入局的互聯(lián)網(wǎng)科技公司,您認(rèn)為哪些或者有哪些積累的企業(yè)具備做出高質(zhì)量ChatGPT的實(shí)力?

A10:現(xiàn)在做自然語言處理的初創(chuàng)公司有很多。

像智源研究院、百度這樣的互聯(lián)網(wǎng)科技公司,阿里巴巴、京東這樣的傳統(tǒng)互聯(lián)網(wǎng)公司,都具備做出類ChatGPT產(chǎn)品的能力。

還有知乎,大家覺得它會(huì)成為未來類ChatGPT產(chǎn)品的基礎(chǔ)語料庫,這會(huì)給知乎帶來很多流量。

Q11:我們已知ChatGPT會(huì)對(duì)搜索引擎產(chǎn)生較大的顛覆作用,除此之外,還會(huì)顛覆哪些賽道?

A11:下一步應(yīng)該就是圖像和視頻。據(jù)我所知,現(xiàn)在也有很多關(guān)于圖像和視頻的大模型,只不過它們并沒有像自然語言走得那么靠前。

基于ChatGPT 這個(gè)大模型本身會(huì)有很多衍生產(chǎn)品,未來它可能會(huì)成為一個(gè)基石,跟各行各業(yè)的需求結(jié)合起來。

Q12:ChatGPT的算力對(duì)芯片提出了巨大的挑戰(zhàn),目前我國的芯片技術(shù)能否達(dá)到ChatGPT的算力需求?

A12:目前國內(nèi)的芯片技術(shù)肯定是比國外要弱一些。雖然會(huì)比國外弱一點(diǎn),但它不是決定因素。

我們說,如果智商不夠,也可以靠數(shù)量來湊。ChatGPT的算力需求,國內(nèi)的芯片還是可以達(dá)到的。

其實(shí)高端芯片的困境,不太會(huì)影響類ChatGPT在我國的開發(fā),能做大模型創(chuàng)新的公司其實(shí)很少,也就是幾個(gè)主流的互聯(lián)網(wǎng)公司,像百度、華為都有自己的芯片體系,這對(duì)他們來說應(yīng)該不是大問題。

但是芯片也等于是算力的價(jià)格,假如芯片便宜,那么在后續(xù)運(yùn)行大模型時(shí),它的成本就會(huì)比較低,現(xiàn)在可能看不太出來,以后就會(huì)成為一個(gè)重要的競爭力,因?yàn)槲磥砻總€(gè)公司都在做類ChatGPT產(chǎn)品,那么成本就是一個(gè)重要的考量標(biāo)準(zhǔn)。

Q13:該如何認(rèn)知類ChatGPT產(chǎn)品之于我國互聯(lián)網(wǎng)產(chǎn)業(yè)的戰(zhàn)略意義?

A13:從自主可控的角度來講,國家會(huì)需要有屬于自己的大模型。

我國現(xiàn)在已經(jīng)有了大模型,雖然跟國外有差距,但是差距并不是特別大。

研發(fā)類ChatGPT的產(chǎn)品,這是一個(gè)值得去戰(zhàn)略思考的,需要去做戰(zhàn)略儲(chǔ)備、戰(zhàn)略決策或者戰(zhàn)略指引的一個(gè)事情。

Q14:作為一個(gè)普通人,我為什么要關(guān)注ChatGPT?ChatGPT未來會(huì)取代我的工作嗎?

A14:AI替代的不是人類,而是不會(huì)使用AI的人類。

我們要關(guān)注ChatGPT的原因,在于需要了解以后應(yīng)該怎么使用ChatGPT相關(guān)的AI產(chǎn)品去提升自己的工作效率,這是我們以后工作中的最優(yōu)選擇。

產(chǎn)業(yè)革命、工業(yè)革命之所以是革命,就是因?yàn)樗鼘?duì)我們每個(gè)人的生活都產(chǎn)生了影響,比如以前的蒸汽機(jī)、電力、互聯(lián)網(wǎng),現(xiàn)在沒有人不使用它們。

AI技術(shù)被我們認(rèn)為是一個(gè)新的工業(yè)革命,原因也是一樣。

所有人的生活,都會(huì)因?yàn)锳I產(chǎn)品本身或者是AI衍生的其他產(chǎn)品而產(chǎn)生改變。當(dāng)所有人都在進(jìn)步,只有我們一成不變,形成數(shù)字鴻溝,那么受到影響的就會(huì)是我們自己。

但同時(shí),AI并不一定能替代人類工作,現(xiàn)在我們也可以看到,它的精確度并不是很高,它還存在很多問題,如事實(shí)性、時(shí)效性和理解程度。

所以應(yīng)該做的不是焦慮、恐慌,而是跟上發(fā)展的浪潮,主動(dòng)了解ChatGPT,以便更好地使用。

Q15:用ChatGPT搞副業(yè)行得通嗎,比如幫寫網(wǎng)文?

A15:不能說完全不行,但要用它寫出充滿可讀性的網(wǎng)文,需要比較精心的引導(dǎo),目前還達(dá)不到給它一份大綱,它就能生成非常完美的一篇網(wǎng)文的程度。

現(xiàn)在的情況更多的是,我們給它大綱,然后它生成一篇充滿套路的文章。

也就是說:華麗的詞藻,但是空洞的思想。

未來互聯(lián)網(wǎng)上的信息會(huì)更加膨脹,大家會(huì)更偏向看有質(zhì)量的東西,那么ChatGPT生成的充滿套路的文章肯定是行不通的。

Q16:人類應(yīng)該以怎樣的正確態(tài)度來面對(duì)ChatGPT?

A16:AI首先是一個(gè)工具。從這個(gè)角度上來看,我們應(yīng)該考慮到,工具和技術(shù)本身沒有善惡,但它的使用角度可能會(huì)有問題。

而且,人工智能這樣一個(gè)工具,嚴(yán)重地依賴它的數(shù)據(jù),還有它的生成過程。所以我們希望人類本著負(fù)責(zé)任的態(tài)度去使用它,這樣大模型生成的內(nèi)容也是相對(duì)負(fù)責(zé)任的。

另外一方面,就是我們?nèi)粘?dān)憂的AI問題。

最近也有一些人在談?wù)摚珻hatGPT這類大語言模型,除了現(xiàn)在的仿造能力,將來會(huì)不會(huì)涌現(xiàn)其他新的能力,比如邏輯思維能力,這是今年熱度很高的一個(gè)問題。

這也是我們目前正在研究的問題,如果有一天它真的出現(xiàn)邏輯思維的能力,或者開始出現(xiàn)類似于小孩的心智,那么可能會(huì)變成一個(gè)比較嚴(yán)重的問題。

但迄今為止,我們還沒有發(fā)現(xiàn)AI有超越人類智能或者企圖反叛人類的苗頭。

Q17:新技術(shù)的風(fēng)險(xiǎn)一般伴隨著法律和倫理上的討論。ChatGPT的風(fēng)險(xiǎn)主要體現(xiàn)在哪些方面?

A17:這應(yīng)該是對(duì)大模型的普遍擔(dān)憂。

第一個(gè)就是,數(shù)據(jù)公平的問題。有很多模型的訓(xùn)練集本身就沒有公平,導(dǎo)致它產(chǎn)生的結(jié)果就是不公平的。

第二個(gè)是,它的答案可能是有害的。目前ChatGPT已經(jīng)對(duì)很多領(lǐng)域都已經(jīng)做出了限制,我們很少能看到有害的問題和有害的答案。但是如果有新的模型,它們可能沒有做出限制,就很難避免。

第三個(gè)是,現(xiàn)在AI界在強(qiáng)調(diào)的,我們要做負(fù)責(zé)任的AI。AI只是一種技術(shù),但作為技術(shù)的生產(chǎn)商,需要讓這個(gè)技術(shù)對(duì)人類負(fù)責(zé)任,它的每一個(gè)決定都不能隨意。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。

評(píng)論

暫無評(píng)論哦,快來評(píng)價(jià)一下吧!

下載界面新聞

微信公眾號(hào)

微博

ChatGPT替代的是不會(huì)用AI的人

ChatGPT能幫忙做副業(yè)、寫論文,但為何還是取代不了人類?

文 | 真故研究室 林秋藝

編輯 | 龔正

ChatGPT已經(jīng)在科技圈火熱一月有余,但仍有很多大眾關(guān)心,ChatGPT于個(gè)人的職業(yè)、學(xué)業(yè)有何價(jià)值、自己該如何與ChatGPT時(shí)代相處。

也有很多人腦洞大開提問,ChatGPT能幫自己做副業(yè)嗎?能成為自己的良師益友、解決自己的精神內(nèi)耗嗎?另外也有瞧不上ChatGPT的聲音。前一陣,ChatGPT連小學(xué)數(shù)學(xué)題都算不對(duì)的新聞也傳播了一番。一些家長形成了先行印象,認(rèn)為這哪里算得上AI。

對(duì)此,我們對(duì)話了中國計(jì)算機(jī)學(xué)會(huì)科學(xué)普及工作委員會(huì)主任助理、香港中文大學(xué)(深圳)大數(shù)據(jù)研究院副研究員崔原豪博士。他也是電影《流浪地球2》中人工智能領(lǐng)域科學(xué)顧問。請他分享了ChatGPT的諸多硬核洞察。

崔原豪的核心觀點(diǎn)如下:

1、AI替代的不是人類,而是不會(huì)使用AI的人類。關(guān)注ChatGPT的原因在于,我們應(yīng)該了解將來如何使用ChatGPT相關(guān)的AI產(chǎn)品去提升自己的工作效率,這是未來工作中的最優(yōu)選擇。當(dāng)世界在進(jìn)步時(shí),一成不變就將形成數(shù)字鴻溝,從而影響自身發(fā)展。

2、機(jī)器在計(jì)算能力上會(huì)高于人類,但機(jī)器智能始終無法如人類智能一樣思考。迄今為止,還沒有發(fā)現(xiàn)AI有超越人類智能或者企圖反叛人類的苗頭。評(píng)價(jià)機(jī)器是否智能只有通過圖靈測試,但真正完備的圖靈測試無法實(shí)現(xiàn)。

3、ChatGPT目前還無法分辨信息的真實(shí)性。下一步,需要在數(shù)據(jù)層面集中增加更多關(guān)于世界常識(shí)的標(biāo)注數(shù)據(jù);在它原有的記憶上更新,因?yàn)殡S著時(shí)間的進(jìn)程,某些事實(shí)和知識(shí)都會(huì)發(fā)生變化,它需要不斷更新。

以下為對(duì)話實(shí)錄:

Q1:您第一次接觸ChatGPT是什么時(shí)候?使用體驗(yàn)如何?

A1:大概是在2個(gè)月前,第一次使用了ChatGPT。當(dāng)時(shí)用它做了一篇英文論文的潤色,讓ChatGPT幫我推敲其中的語法,結(jié)果超乎我想象的好。

我告訴它:你現(xiàn)在是一個(gè)英語翻譯家,我希望你把我說的話翻譯成優(yōu)雅且簡練的英語句子,不要作過多解釋,也不要改變它的原意。

這里每一個(gè)“要”或“不要”都是一個(gè)指示。在這幾條指示的要求下,它就會(huì)把你輸入的一段英語文本變得更加優(yōu)美簡潔。

這比以前用的Grammarly(英語語法檢測)潤色出來的效果好很多。專業(yè)性上,ChatGPT會(huì)做很多專業(yè)術(shù)語的替換,這是之前的語法檢測工具很少能做到的;文法方面,被它替換后的詞匯和語法相較之前會(huì)更優(yōu)雅一些。

Q2:現(xiàn)在對(duì)ChatGPT的復(fù)用率如何?

A2:最近更多的是用它來做論文潤色、英語翻譯或其他語言翻譯,有時(shí)候也會(huì)逗它玩一會(huì)兒。

它的使用過程還是挺有趣的,像是工作助手,大幅度地減少了我的工作時(shí)間,提高了效率。

Q3:請教一個(gè)根源性的問題,在人工智能中,大語言模型扮演著怎樣的角色?

A3:要了解大模型的角色,我們首先要了解機(jī)器如何評(píng)價(jià)一段文本的好壞。

舉個(gè)例子,《流浪地球2》里有一句經(jīng)典臺(tái)詞“我相信人類的勇氣,可以跨越時(shí)間,跨越每一個(gè)歷史、當(dāng)下和未來?!?/p>

假如我把句子順序調(diào)整一下,“我相信勇氣的人類,可以跨越時(shí)間、當(dāng)下、未來,跨越每一個(gè)歷史?!贝蠹視?huì)覺得有一點(diǎn)奇怪,但還是能聽出來我說的是什么意思。

但當(dāng)我把它整體打亂,變成“人類勇氣未來,時(shí)間當(dāng)下跨越每一個(gè),可以我相信的歷史”,你就會(huì)覺得無法理解。

我們會(huì)覺得第一個(gè)句子非常合理,最后一個(gè)不合理的原因是,在我們?nèi)祟愃械恼Z言里,最后一個(gè)句子出現(xiàn)的概率非常低。

從統(tǒng)計(jì)角度來看,在“人類語言模型”里,第一句話發(fā)生的概率最大,第二句話次之,第三句話幾乎不可能發(fā)生。這就是文本合理性的量化。

機(jī)器就是在它的訓(xùn)練集中,獲得文本合理性的量化指標(biāo)。如果訓(xùn)練集足夠泛化到含括所有的語言模型,那么機(jī)器就有資格評(píng)價(jià)這段文本是不是符合人類語法。

當(dāng)你讓它生成一段新的文本時(shí),它會(huì)按照人類最常用、最喜歡的方式生成,從語法結(jié)構(gòu)上來看,你會(huì)覺得它說得很有道理,但事實(shí)層面卻不一定對(duì)。

也就是說,語言模型本身就是自然語言處理的一個(gè)領(lǐng)域基石。

語言模型的好壞,決定了整個(gè)下游任務(wù)處理的好壞,因?yàn)槭撬谠u(píng)價(jià)語言是不是合理。如果剛開始評(píng)價(jià)指標(biāo)就錯(cuò)了,那么后邊的所有東西都會(huì)變成錯(cuò)的。所以語言模型是根本。

Q4:有聲音認(rèn)為,ChatGPT是一個(gè)顛覆式的創(chuàng)新,它的顛覆性體現(xiàn)在哪?

A4:我個(gè)人覺得顛覆性其實(shí)體現(xiàn)在,它變成了一個(gè)可以直接面對(duì)用戶的產(chǎn)品。

以前大家做大模型的目的,第一是可以完成更多的自然語言處理任務(wù),第二個(gè)是可以在每個(gè)細(xì)分的載源處理任務(wù)上可以去刷新,去達(dá)到更高的進(jìn)度。包括谷歌的大模型、微軟的大模型,還有智源研究院的大模型。

但是很少有人去站在用戶的角度去想:我們是不是可以去做一個(gè)大家都可以用得起來的人工智能產(chǎn)品。

以前所有的人工智能產(chǎn)品,比如小冰、小愛同學(xué),或者是手機(jī)里邊的圖像處理、圖像增強(qiáng)的算法也都是內(nèi)嵌在其他產(chǎn)品里邊的,并沒有真正打包成一個(gè)完全的人工智能的產(chǎn)品去賣給用戶。

現(xiàn)在ChatGPT就是每個(gè)人都可以用得起來一個(gè)產(chǎn)品,大家都可以接受他能做到什么程度,而且它還可以接入更多人工智能的算法,包括圖像和視頻領(lǐng)域的算法。

Q5:許多用戶實(shí)測之后發(fā)現(xiàn),ChatGPT在與人溝通上雖然已經(jīng)相當(dāng)?shù)刂悄芑袝r(shí)“也會(huì)一本正經(jīng)的胡說八道”,從技術(shù)角度上看,造成這一結(jié)果的原因是什么?

A5:主要原因是ChatGPT還不懂什么是“事實(shí)”。

ChatGPT的訓(xùn)練過程第一步是預(yù)訓(xùn)練。預(yù)訓(xùn)練是采用無監(jiān)督訓(xùn)練的方法,也就是把網(wǎng)絡(luò)上的數(shù)據(jù)包括其他的東西,交給它來進(jìn)行自我訓(xùn)練。

這造成的一個(gè)結(jié)果就是,它不知道這些東西哪一個(gè)是真的,哪一個(gè)是錯(cuò)誤的。

因?yàn)轭A(yù)訓(xùn)練模型是一個(gè)語言模型,它的主要目的是去了解人類的語言習(xí)慣,包括單詞之間的構(gòu)造關(guān)系,只要學(xué)足夠多的文字語料,這些語義信息都是可以被抽取出來的。

但是抽取出來的關(guān)于世界的常識(shí),它自己是無法評(píng)判真實(shí)性的,需要人類來進(jìn)行標(biāo)注。

下一步,如果它要變得更能分辨事實(shí)的話,就需要再加入很多關(guān)于世界常識(shí)的標(biāo)注數(shù)據(jù),人類需要對(duì)哪一些是真的世界常識(shí)去做標(biāo)注。

另外一個(gè),它需要做一個(gè)記憶上更新,因?yàn)橛泻芏嗍聦?shí)是沖突的,隨著時(shí)間的進(jìn)程,某些事實(shí)和知識(shí)會(huì)發(fā)生變化,它需要不斷更新。

Q6:ChatGPT接下來應(yīng)該在哪些方面做改進(jìn),來變得更為智能?

A6:這個(gè)還是要從智能本身的定義來想,什么叫“智能”?

我一直覺得在這個(gè)領(lǐng)域里邊沒有一個(gè)普適的評(píng)價(jià)基準(zhǔn),去評(píng)價(jià)機(jī)器或者大語言模型本身的能力?,F(xiàn)在是根據(jù)每一個(gè)細(xì)分任務(wù)去評(píng)價(jià)它的準(zhǔn)確度,但是準(zhǔn)確度其實(shí)跟智能沒有太大關(guān)系。

要評(píng)價(jià)它是否智能就需要通過圖靈測試,但是真正完備的圖靈測試是實(shí)現(xiàn)不了的,因?yàn)樗蟮氖侨伺c機(jī)器不斷交互,這是一個(gè)無限長的過程,基本上無法實(shí)現(xiàn)。

如果是限定時(shí)間內(nèi),人和機(jī)器的交互,其實(shí)是有可能會(huì)被機(jī)器騙過去的。

比如,你和一個(gè)大語言模型聊5分鐘,如果話題比較窄,可能你就會(huì)覺得它已經(jīng)達(dá)到人類的標(biāo)準(zhǔn)了。

但是如果你跟它聊得非常寬泛,把范圍擴(kuò)展到它未曾接觸過的領(lǐng)域,或者你跟它聊大概一個(gè)月左右,你可能就會(huì)覺得它確實(shí)不是一個(gè)人。

所以,如果是從標(biāo)準(zhǔn)的測試層面來說,現(xiàn)有的大語言模型應(yīng)該都無法通過測試。

Q7:像人腦一樣去思考和創(chuàng)造,是否是科學(xué)界對(duì)ChatGPT定性的終極目標(biāo)?

A7:大方向上是朝著“人腦”這個(gè)方向努力的,但是在真正的研究過程中其實(shí)反而沒想這么多。

比如,在ChatGPT的研究過程中,最開始的時(shí)候機(jī)器是需要人的提示的,你需要給它一個(gè)例子,它會(huì)按照這個(gè)例子把你想要的內(nèi)容生成出來,但是現(xiàn)在已經(jīng)演變到你直接給它下命令,它就能生成的程度。

所以,實(shí)際上它確實(shí)是在朝著一個(gè)既定的目標(biāo)去研究的,但是這個(gè)既定目標(biāo)可能并不一定是為了更智能,也可能是為了讓它變得更容易使用。

Q8:人類隨年齡越長越充滿智慧,ChatGPT也會(huì)隨著年限增長,變得更聰明嗎?

A8:我覺得這個(gè)不一定,因?yàn)橹R(shí)是需要更新的。

人類大腦有一個(gè)遺忘的功能,這非常重要,因?yàn)榇竽X的儲(chǔ)存容量是有限的,現(xiàn)在我們每天都會(huì)接收到很多的信息,從視覺、聽覺、嗅覺,包括皮膚都可以接受到非常細(xì)微的刺激。

人類的大腦有注意力機(jī)制和遺忘機(jī)制,我們會(huì)注意到我們感興趣的信息,也會(huì)遺忘掉很多細(xì)節(jié)信息。這兩個(gè)機(jī)制保證了人類大腦不會(huì)被過多的信息沖垮。

對(duì)于大語言模型來說,現(xiàn)在注意力機(jī)制已經(jīng)有了,但遺忘機(jī)制還沒有。

現(xiàn)在的大語言模型還只是一個(gè)“新生”的階段,它的訓(xùn)練并不是像我們?nèi)祟愒诂F(xiàn)實(shí)生活中實(shí)時(shí)訓(xùn)練,而是在訓(xùn)練之后使用一段時(shí)間,然后再更新、再訓(xùn)練。

在使用過程中訓(xùn)練是我們?nèi)祟惇?dú)有的能力,而大語言模型無法在使用過程中訓(xùn)練,這也是未來大語言模型需要解決的問題。

Q9:有聲音認(rèn)為,國內(nèi)模型開發(fā)公司的研究進(jìn)度要比海外公司落后2年左右,這個(gè)觀點(diǎn)您認(rèn)同嗎?差距主要在哪?

A9:我個(gè)人覺得大家都比Open AI要落后2年,不只是國內(nèi),國外其他公司也一樣。

因?yàn)镺pen AI選擇的這條路線,在ChatGPT發(fā)布之前,大家都覺得它只是一條路線而已,都不覺得它會(huì)是一條通往未來通用人工智能的標(biāo)準(zhǔn)路線。

ChatGPT出現(xiàn)之后,現(xiàn)在注冊用戶已經(jīng)超過1億了,這是以前從來沒有過的一個(gè)數(shù)字。這個(gè)現(xiàn)象讓大家覺得,朝這個(gè)方向做通用人工智能是完全有可能的,而且ChatGPT也展示了潛力。

Q10:現(xiàn)在入局的互聯(lián)網(wǎng)科技公司,您認(rèn)為哪些或者有哪些積累的企業(yè)具備做出高質(zhì)量ChatGPT的實(shí)力?

A10:現(xiàn)在做自然語言處理的初創(chuàng)公司有很多。

像智源研究院、百度這樣的互聯(lián)網(wǎng)科技公司,阿里巴巴、京東這樣的傳統(tǒng)互聯(lián)網(wǎng)公司,都具備做出類ChatGPT產(chǎn)品的能力。

還有知乎,大家覺得它會(huì)成為未來類ChatGPT產(chǎn)品的基礎(chǔ)語料庫,這會(huì)給知乎帶來很多流量。

Q11:我們已知ChatGPT會(huì)對(duì)搜索引擎產(chǎn)生較大的顛覆作用,除此之外,還會(huì)顛覆哪些賽道?

A11:下一步應(yīng)該就是圖像和視頻。據(jù)我所知,現(xiàn)在也有很多關(guān)于圖像和視頻的大模型,只不過它們并沒有像自然語言走得那么靠前。

基于ChatGPT 這個(gè)大模型本身會(huì)有很多衍生產(chǎn)品,未來它可能會(huì)成為一個(gè)基石,跟各行各業(yè)的需求結(jié)合起來。

Q12:ChatGPT的算力對(duì)芯片提出了巨大的挑戰(zhàn),目前我國的芯片技術(shù)能否達(dá)到ChatGPT的算力需求?

A12:目前國內(nèi)的芯片技術(shù)肯定是比國外要弱一些。雖然會(huì)比國外弱一點(diǎn),但它不是決定因素。

我們說,如果智商不夠,也可以靠數(shù)量來湊。ChatGPT的算力需求,國內(nèi)的芯片還是可以達(dá)到的。

其實(shí)高端芯片的困境,不太會(huì)影響類ChatGPT在我國的開發(fā),能做大模型創(chuàng)新的公司其實(shí)很少,也就是幾個(gè)主流的互聯(lián)網(wǎng)公司,像百度、華為都有自己的芯片體系,這對(duì)他們來說應(yīng)該不是大問題。

但是芯片也等于是算力的價(jià)格,假如芯片便宜,那么在后續(xù)運(yùn)行大模型時(shí),它的成本就會(huì)比較低,現(xiàn)在可能看不太出來,以后就會(huì)成為一個(gè)重要的競爭力,因?yàn)槲磥砻總€(gè)公司都在做類ChatGPT產(chǎn)品,那么成本就是一個(gè)重要的考量標(biāo)準(zhǔn)。

Q13:該如何認(rèn)知類ChatGPT產(chǎn)品之于我國互聯(lián)網(wǎng)產(chǎn)業(yè)的戰(zhàn)略意義?

A13:從自主可控的角度來講,國家會(huì)需要有屬于自己的大模型。

我國現(xiàn)在已經(jīng)有了大模型,雖然跟國外有差距,但是差距并不是特別大。

研發(fā)類ChatGPT的產(chǎn)品,這是一個(gè)值得去戰(zhàn)略思考的,需要去做戰(zhàn)略儲(chǔ)備、戰(zhàn)略決策或者戰(zhàn)略指引的一個(gè)事情。

Q14:作為一個(gè)普通人,我為什么要關(guān)注ChatGPT?ChatGPT未來會(huì)取代我的工作嗎?

A14:AI替代的不是人類,而是不會(huì)使用AI的人類。

我們要關(guān)注ChatGPT的原因,在于需要了解以后應(yīng)該怎么使用ChatGPT相關(guān)的AI產(chǎn)品去提升自己的工作效率,這是我們以后工作中的最優(yōu)選擇。

產(chǎn)業(yè)革命、工業(yè)革命之所以是革命,就是因?yàn)樗鼘?duì)我們每個(gè)人的生活都產(chǎn)生了影響,比如以前的蒸汽機(jī)、電力、互聯(lián)網(wǎng),現(xiàn)在沒有人不使用它們。

AI技術(shù)被我們認(rèn)為是一個(gè)新的工業(yè)革命,原因也是一樣。

所有人的生活,都會(huì)因?yàn)锳I產(chǎn)品本身或者是AI衍生的其他產(chǎn)品而產(chǎn)生改變。當(dāng)所有人都在進(jìn)步,只有我們一成不變,形成數(shù)字鴻溝,那么受到影響的就會(huì)是我們自己。

但同時(shí),AI并不一定能替代人類工作,現(xiàn)在我們也可以看到,它的精確度并不是很高,它還存在很多問題,如事實(shí)性、時(shí)效性和理解程度。

所以應(yīng)該做的不是焦慮、恐慌,而是跟上發(fā)展的浪潮,主動(dòng)了解ChatGPT,以便更好地使用。

Q15:用ChatGPT搞副業(yè)行得通嗎,比如幫寫網(wǎng)文?

A15:不能說完全不行,但要用它寫出充滿可讀性的網(wǎng)文,需要比較精心的引導(dǎo),目前還達(dá)不到給它一份大綱,它就能生成非常完美的一篇網(wǎng)文的程度。

現(xiàn)在的情況更多的是,我們給它大綱,然后它生成一篇充滿套路的文章。

也就是說:華麗的詞藻,但是空洞的思想。

未來互聯(lián)網(wǎng)上的信息會(huì)更加膨脹,大家會(huì)更偏向看有質(zhì)量的東西,那么ChatGPT生成的充滿套路的文章肯定是行不通的。

Q16:人類應(yīng)該以怎樣的正確態(tài)度來面對(duì)ChatGPT?

A16:AI首先是一個(gè)工具。從這個(gè)角度上來看,我們應(yīng)該考慮到,工具和技術(shù)本身沒有善惡,但它的使用角度可能會(huì)有問題。

而且,人工智能這樣一個(gè)工具,嚴(yán)重地依賴它的數(shù)據(jù),還有它的生成過程。所以我們希望人類本著負(fù)責(zé)任的態(tài)度去使用它,這樣大模型生成的內(nèi)容也是相對(duì)負(fù)責(zé)任的。

另外一方面,就是我們?nèi)粘?dān)憂的AI問題。

最近也有一些人在談?wù)?,ChatGPT這類大語言模型,除了現(xiàn)在的仿造能力,將來會(huì)不會(huì)涌現(xiàn)其他新的能力,比如邏輯思維能力,這是今年熱度很高的一個(gè)問題。

這也是我們目前正在研究的問題,如果有一天它真的出現(xiàn)邏輯思維的能力,或者開始出現(xiàn)類似于小孩的心智,那么可能會(huì)變成一個(gè)比較嚴(yán)重的問題。

但迄今為止,我們還沒有發(fā)現(xiàn)AI有超越人類智能或者企圖反叛人類的苗頭。

Q17:新技術(shù)的風(fēng)險(xiǎn)一般伴隨著法律和倫理上的討論。ChatGPT的風(fēng)險(xiǎn)主要體現(xiàn)在哪些方面?

A17:這應(yīng)該是對(duì)大模型的普遍擔(dān)憂。

第一個(gè)就是,數(shù)據(jù)公平的問題。有很多模型的訓(xùn)練集本身就沒有公平,導(dǎo)致它產(chǎn)生的結(jié)果就是不公平的。

第二個(gè)是,它的答案可能是有害的。目前ChatGPT已經(jīng)對(duì)很多領(lǐng)域都已經(jīng)做出了限制,我們很少能看到有害的問題和有害的答案。但是如果有新的模型,它們可能沒有做出限制,就很難避免。

第三個(gè)是,現(xiàn)在AI界在強(qiáng)調(diào)的,我們要做負(fù)責(zé)任的AI。AI只是一種技術(shù),但作為技術(shù)的生產(chǎn)商,需要讓這個(gè)技術(shù)對(duì)人類負(fù)責(zé)任,它的每一個(gè)決定都不能隨意。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請聯(lián)系原著作權(quán)人。