文 | 星船知造 錢鴻生
編輯 | 唐曉園
上周我們發(fā)布了報告上篇 《4萬字告訴你ChatGPT到底是什么(上)》,今天的下篇我們將繼續(xù)節(jié)選報告第三章中的“我國人工智能發(fā)展中存在的主要問題”、第四章《ChatGPT對資本市場影響的分析與研判》和第五章《我國未來人工智能發(fā)展的展望》中部分核心內容和觀點。
OpenAI推出ChatGPT后不久,微軟宣布將ChatGPT與搜索引擎Bing整合,谷歌宣布推出Bard應對挑戰(zhàn),接著Meta官網公布了一款新的人工智能大型語言模型LLaMA。
此時,人們自然而然把目光轉向了中國相關企業(yè),他們何時宣布推出類似于ChatGPT人工智能發(fā)展的時間表。
人們特別關注的企業(yè)有百度、阿里巴巴以及人工智能企業(yè)科大訊飛等等一大批中國與人工智能有關聯(lián)企業(yè)的動向。
3.4.3 我國人工智能發(fā)展中存在的主要問題
我國發(fā)展人工智能面臨三方面技術難點如下:
第一,人工智能的AI算法
人工智能常見的算法技術的基礎性研究主要集中于國內各大高校團隊,但在科研成果轉化領域一直發(fā)展比較緩慢,較難實現(xiàn)從理論和技術向生產力的轉化。
目前以華為、阿里、騰訊等公司主導的人工智能技術研發(fā)團隊迅速崛起,將科研產品開發(fā)與算法技術結合,從產業(yè)領域實現(xiàn)人工智能算法的技術成果轉化。
但是在算法的基礎理論研究層面,一直以來是我們發(fā)展人工智能技術的短板。沒有對大規(guī)模機器學習場景中強化學習算法模型、生成性預訓練變換模型、分布式并行的研發(fā)投入,或者說由于受到資金投入與人才缺乏的影響,研究成果與世界發(fā)達企業(yè)還有很大的差距。
美國現(xiàn)有的人工智能系統(tǒng)的關鍵技術都是不開源的,系統(tǒng)深度學習框架、數據庫和工具集,均限內部使用,部分僅對系統(tǒng)的應用接口持開源的態(tài)度,使我們無法在短時間內掌握世界最先進的人工智能系統(tǒng)的開發(fā)經驗。
從市場的角度來看,我國目前的人工智能系統(tǒng)都是一些比較初級的數據采集與分析應用系統(tǒng),類似于ChatGPT高度智能化的AI產品的研發(fā)還處于摸索與初級階段,在性能和穩(wěn)定性方面改善空間潛力巨大。
早在20世紀80年代,我國學術界就提出了相當完善的AI算法模型,中國多家高校有從事算法模型的研究,但大多都將算法模型應用在人臉識別系統(tǒng),提高圖像識別精度方面。到目前為止算法模型在AI領域的價值還沒有被真正體現(xiàn),這可能受限于我們的芯片制造水平難以提供支撐深度神經網絡訓練和預訓練需要的算力。
科研領域需要更大投入,要針對目前的已有算法進行深度優(yōu)化,或者另辟蹊徑,提出更為先進的算法理論。要打造出符合世界產業(yè)發(fā)展最新技術水平,具有全球市場競爭力的人工智能產品,看來有相當長的一段路要走。但也不排除彎道超車或換道超車奇跡的發(fā)生。
我國AI發(fā)展現(xiàn)狀任重而道遠。
第二,人工智能AI模型軟件
國內的人工智能模型軟件開發(fā)已經起步,開始對標世界先進的人工智能模型,培育自己的發(fā)展環(huán)境。人工智能模型是人工智能生態(tài)中最重要的因素之一,我國需要促進國產模型軟件的發(fā)展和推廣,擺脫國外的標準制約。ChatGPT就是基于“生成型預訓練變換模型”開發(fā)出來的自然語言聊天機器人。
第三,人工智能開發(fā)環(huán)境
人工智能開發(fā)環(huán)境是指相關算法、數據庫、軟件開發(fā)工具、高性能的人工智能AI計算機芯片、云計算網絡的集合。國產AI模型開發(fā)需要和國產AI智能芯片及硬件進行相互適配、性能優(yōu)化和應用推廣,才能夠形成面向行業(yè)應用的軟硬件一體化人工智能平臺。
國際人工智能巨頭掌控著人工智能開發(fā)環(huán)境的關鍵技術,我們目前還較難在短時間內在AI芯片、算法、模型軟件、云數據庫服務等人工智能開發(fā)環(huán)境上有十分大的突破。
人工智能系統(tǒng)開發(fā)是一個系統(tǒng)工程,需要協(xié)同各個方面的資源共同發(fā)力,才能在產業(yè)發(fā)展中占有制高點。
3.4.4 AI芯片,人工智能繞不過去的坎
人工智能AI芯片是技術發(fā)展的關鍵之一,它是提供人工智能算力的靈魂和大腦,承載了為各種終端提供強大算力的重要任務。人工智能AI 芯片的出現(xiàn),極大提高數據處理的能力,尤其在處理海量數據時明顯優(yōu)于傳統(tǒng)CPU。
從技術架構來看,AI芯片一般可以分為GPU、FPGA、ASIC和類腦芯片四大類——
GPU(Graphics Processing Unit,圖形處理器)
GPU是利用處理圖形任務的圖形處理器來計算原本由中央處理器CPU的通用計算任務。
GPU的關鍵性能是矩形并行計算,主流的GPU具有強大的計算能力,無論性能還是內存帶寬均遠大于同代的CPU。CPU 由專為順序串行處理而優(yōu)化組成,而 GPU 則擁有一個由數以千計的更小、更高效的核心(專為同時處理多重任務而設計)組成的大規(guī)模并行計算架構。同時CPU相當一部分時間在執(zhí)行外設的中斷、進程的切換等任務,而GPU有更多的時間用于并行計算。
英偉達是AI芯片GPU(圖形處理器單元)的主要生產廠商,無論是OpenAI的ChatGPT、還是微軟的搜索引擎Bing、谷歌的人工智能系統(tǒng)LaMDA,都離不開英偉達提供的底層芯片GPU的算力支持,英偉達系列的A100和H100系列占全球AI芯片市場的80%以上的份額。
除了英偉達,還有AMD,ARM家的Mali,Imagination的PowerVR,Qualcomm的Adreno等。
基于FPGA現(xiàn)場可編程門陣列
FPGA(Field Programmable Gate Array)現(xiàn)場可編程門陣列,或稱半定制化芯片。它是在PAL、GAL、CPLD等可編程器件的基礎上進一步發(fā)展的產物,可以根據算法需求,動態(tài)重構計算架構。它是作為專用集成電路(ASIC)領域中的一種半定制電路而出現(xiàn)的,既解決了定制電路的不足,又克服了原有可編程器件門電路數有限的缺點。
全球知名的FPGA生產廠商有:Altera,Xilinx,Actel,Lattice,Atmel,我國廠商代表有深鑒科技DPU、百度XPU等。
ASIC(Application Specific Integrated Circuit)
ASIC專用集成電路是針對特定用戶要求定制設計、制造的專門的應用程序芯片。ASIC芯片廣泛應用于人工智能設備、虛擬貨幣挖礦設備、耗材打印設備、軍事國防設備等智慧終端。
ASIC芯片還可以細分為全定制ASIC芯片、半定制ASIC芯片及可編程ASIC芯片。ASIC芯片擁有面積小、集成度高等優(yōu)勢,被廣泛應用于人工智能終端和網絡系統(tǒng)中。
類腦計算芯片(Brain-Inspired Chip)
類腦計算芯片是人工智能AI的一個重要組成部分,類腦芯片可模擬人類大腦信息處理方式,能以極低的功耗對信息進行并行和分布式處理,類腦計算芯片就是把微電子技術和新型神經形態(tài)器件結合,突破傳統(tǒng)計算架構,實現(xiàn)存儲與計算的深度融合,大幅提升計算性能、提高集成度、降低能耗。對于現(xiàn)有的計算體系與系統(tǒng)做出變革,并實現(xiàn)在計算能耗、計算能力與計算效率等方面的大幅改進。
IBM已經開始進行類腦智能算法與技術的探索,并已成功研制出TrueNorth芯片。
中國目前有清華大學的天機芯,浙江大學的Darwin2 (55nm)等一批研制類腦計算芯片機構和企業(yè)。
ChatGPT對資本市場影響的研判
4.2 ChatGPT背后的技術壁壘和文化控制權
ChatGPT是一種自然語言處理技術,一旦ChatGPT能從目前的實驗階段走向應用成熟階段,將這標志著在人類活動中,人工智能將開始扮演重要角色并占據優(yōu)勢地位。
我們知道,在自然語言處理大模型技術上,由于受到各種因素的影響,我國的人工智能相比國外發(fā)展有一定的差距。
但在局部技術領域,我們還是具有很大優(yōu)勢的,比如在優(yōu)化大模型中的數據庫,在某些特定領域進行模型優(yōu)化和云數據庫建設,以及在一些與自然語言處理關系密切的學科。在國家宏觀政策的指導下,發(fā)揮社會市場經濟體制的優(yōu)勢,能集中力量辦大事的原則,完全可以進行基于大模型處理方法模型的應用性研究,以適應人工智能發(fā)展對拉動國家經濟上行,滿足人們追求豐富多彩生活娛樂的需求。
4.3 ChatGPT可能引發(fā)的機遇與風險
我們對ChatGPT要時刻保持清醒的認知,每一次技術迭代,都將改變人類生活的內涵和方式。ChatGPT是否屬于一次新的技術迭代這個問題還有進一步觀察,可是以ChatGPT為代表的人工智能技術的發(fā)展和自然語言處理技術的突破,一定會對現(xiàn)有產業(yè)發(fā)展格局帶來前所未有的重要影響。
從正面影響來看,ChatGPT可以幫助人們快速獲取信息和提高工作效率,擴展知識面,提供發(fā)展AI 產業(yè)新的思路和方法。 另一方面,某些低端和重復的工作可能被ChatGPT和 AI代替,導致勞動力市場的階段性動蕩和變化。
如果人們過度依賴AI,可能會降低人們一部分的操作技能水平和創(chuàng)新精神。某些行業(yè)可能會發(fā)生重組甚至消失,有可能在變化過程中引發(fā)社會矛盾等。
顛覆性創(chuàng)新理論的提出者克里斯滕森在《創(chuàng)新者的窘境》這本書中,將創(chuàng)新分為了延續(xù)性創(chuàng)新和破壞性創(chuàng)新兩種:破壞性創(chuàng)新難以評估市場規(guī)模增長的需求和未來的發(fā)展路徑;延續(xù)性創(chuàng)新則會將資源推向更容易帶來增長的方向。
總體而言,以ChatGPT為代表的人工智能的發(fā)展, 可能對人類的未來產生重要影響,需要積極開展相關的研究和管理,以確保國家經濟技術發(fā)展不受制于人,保持社會的穩(wěn)定發(fā)展和保護大多數人的共同利益?! ?/p>
人工智能解決方案可以為企業(yè)和公民提供巨大的機會,但也可能帶來風險,這就需要一個堅實的監(jiān)管框架來確保人工智能技術的健康發(fā)展。
4.4 ChatGPT的隱患與潛在危機
盡管目前的ChatGPT還是一個驗證的版本,強大的文本處理與聊天能力十分強大,但ChatGPT在短短的幾個月試運行中也暴露出了很多缺陷,甚至可能會引發(fā)危機。這些問題正隨著以ChatGPT為代表的生成型AI系統(tǒng)的推進逐漸浮出水面。人們也會更關注這些問題,并迅速采取防范措施。ChatGPT存在的缺陷與風險主要體現(xiàn)在以下幾個方面:
4.1.1 ChatGPT在道德和法律方面的違規(guī)行為
人們在使用中發(fā)現(xiàn),ChatGPT對信息、數據來源無法進行核實、核查和驗證,可能存在個人數據與商業(yè)秘密被泄露,引起竊取他人信息的道德問題和提供虛假信息兩大隱患。
ChatGPT從網絡中獲取大量信息,依托海量數據庫分析運行,其中包括大量的互聯(lián)網用戶自行輸入的信息,比如新聞工作者編寫的稿子,ChatGPT目前無法追溯到文字的來源,因此當用戶輸入提問時,ChatGPT可能產生泄露個人數據或商業(yè)秘密等的風險。
ChatGPT涉及的法律風險不限于以下幾種:
著作權:生成的內容可能會侵犯他人的著作權。
隱私權:使用ChatGPT 可能需要提供一些個人信息,因此存在泄露個人隱私的風險。
信息誤導:生成的內容可能不準確或有誤導性和歧視性。
侵權違規(guī):ChatGPT生成的內容可能侵犯他人的合法權益,如商標權、出版權、著作權、專利權等。
商標侵權:ChatGPT 生成的圖像和視頻內容可能涉及商標侵權。
人身攻擊:ChatGPT 生成的內容可能涉及對宗教和人身攻擊,違反社會倫理道德。
侮辱誹謗:使用 ChatGPT 生成的內容可能侮辱他人,可能涉及誹謗等法律問題。
最近,OpenAI表示,正考慮在ChatGPT中添加模型水印,即監(jiān)測模型可以識別的特殊標記,以降低信息濫用的問題。
4.1.2 ChatGPT提供虛假信息
ChatGPT常常出現(xiàn)“一本正經的胡說八道’”,這是ChatGPT目前被人詬病的一個主要缺點。對于有些虛假信息,需要具備一定專業(yè)知識的人才能辨別真?zhèn)?,這就為不法分子惡意“訓練”或“誤導”人工智能,使其提供詐騙信息、釣魚網站等內容,損害公民人身和財產安全創(chuàng)造了有利條件。
4.1.3. ChatGPT信息監(jiān)管迫在眉睫
ChatGPT在建立語料庫、生成文本時,大量使用并非公開的開源代碼,或未辦理許可證申請,可能會導致侵權。對于一些受著作權或版權保護的文本、視頻、軟件代碼等,如果沒有經過權利人的授權,直接復制到自己的數據庫中,在此基礎上修改、拼湊,極有可能侵害他人的著作權,因此對ChatGPT必須要考慮建立相關的監(jiān)管機制,防止產生不良的社會影響。
4.1.4. ChatGPT提供侵權信息
一位美國眾議院科學委員議員表示:“我對人工智能以及人工智能推動的社會進步感到興奮,但也為其不受限制和不受監(jiān)管感到擔憂?!?/p>
紐約大學認知科學名譽教授Gary Marcus對以深度學習為中心的 AI 持懷疑態(tài)度,他認為:“生成式 AI 對社會結構構成了真實而迫在眉睫的威脅”。
各國監(jiān)管機構要有切實可行的風險評估框架,并任命一個負責任的機構。此外,人工智能倫理框架的建立將為所有部門創(chuàng)造一個良好的創(chuàng)新環(huán)境。
一位資深的網絡安全公司管理者認為:她的團隊能夠讓 ChatGPT 編寫網絡攻擊的程序,ChatGPT從編寫網絡釣魚電子郵件到編寫惡意代碼,再到規(guī)避常見的網絡安全檢查,實施對其他系統(tǒng)的攻擊,ChatGPT幾乎可以成為讓沒有軟件編碼技能的人成為網絡罪犯?! ?/p>
無數的教育工作者譴責有人使用 ChatGPT考試作弊,美國的多所學校已經禁止學生用 ChatGPT聊天機器人答題,拒絕采用ChatGPT編寫的論文和答卷。
由于ChatGPT是一種人工智能工具,只要輸入提問,點擊鼠標,就可以完成任何的主題文章、詩歌和電子郵件。特別是學生用ChatGPT完成試題應答和論文撰寫。在國外教育界引起了軒然大波。
為此OpenAI迫于社會壓力,趕緊開發(fā)出了防作弊應用軟件,可以審查哪些試卷和論文是由ChatGPT提供的,以此防止學生作弊。
但是,這種新的檢測工具并沒有消除教師們的恐懼,反而讓科技界和教育界有些失望。據測試,該系統(tǒng)大約只有20%的準確性,不能完全檢出作弊的試卷答題。
2023年1月初,美國普林斯頓大學的學生愛德華·田(Edward Tian)開發(fā)了GPTZero工具,該工具的標語是“人類應該知道真相”,該工具可以更準確鑒別由ChatGPT提供的文檔,相信不久國內也會催生出這類的應用軟件和工具。
人工智能領域的競爭焦點與差距
在以ChatGPT為代表的生成類AI大模型中,對于AI芯片的要求更高,包括要求更高速的內存帶寬、更大的內存容量以及更加高效的數據通信帶寬。
以OpenAI的ChatGPT-3.5模型訓練為例,微軟公司專門為Open AI 開發(fā)了一款定制的超級計算機,使用了上萬顆英偉達A100的AI芯片。
在國產AI芯片自主研發(fā)領域,國內多家廠商奮起直追,成果喜人,為我國的人工智能發(fā)展奠定了堅實基礎,令世界刮目相看。
OpenAI公司發(fā)展人工智能,在微軟投資100億美元拿到49%的股權之前,OpenAI在成立的七年多的時間里,總共收到了大約40億美元的風險投資,就是在這樣巨額投資的情況下,根據OpenAI公司2022年財報顯示虧損仍高達5.45億美元(折合人民幣虧損額達到將近40億人民幣)。
微軟在入股OpenAI 后,為OpenAI部署了一個超級計算機,按照算力來說,該超級計算機可以進入全球超計算機的前五名。
2023年1月,微軟還承諾將繼續(xù)為OpenAI提供更多的超算中心的部署,讓它能夠更加高效完成下一代ChatGPT模型的訓練。
根據OpenAI測算,目前訓練一次ChatGPT模型的算力成本在450萬美元左右,這里還只是計算硬件投入的成本,還不包括人工成本、網絡寬帶成本、數據儲存、固定資產折舊等的綜合成本。
實際上訓練一次ChatGPT模型,有時候人力成本和運維成本支出要占據總成本很大一部分,因此Open AI雇傭了第三世界國家的低成本外來外包員工來完成指定的優(yōu)化任務,從而降低人工成本。
目前ChatGPT-3參數量在1750億參數左右。而以OpenAI發(fā)布最新的ChatGPT-3.5B模型為例,數量將達到1.7萬億。預測成本就更夸張了,訓練時間也將從之前的幾周變?yōu)閿翟律踔翈讉€月的周期。
目前OpenAI公司有1000多名正式員工,人力成本也是非常龐大的一筆支出。因此AI產業(yè)研發(fā)成本支出是非常燒錢的行業(yè),對于一般發(fā)展中國家來說這是一筆巨資。同樣我們國家人工智能系統(tǒng)還處在研發(fā)階段,資本投入也是當下面臨的一個重要課題。
隨著大模型訓練體量的不斷增加,未來算力資源、人才資源、數據資源三者的投入不可小覷。
ChatGPT引爆全球互聯(lián)網入口爭奪戰(zhàn)
從ChatGPT功能來看,還處在聯(lián)網驗證階段,就是在基本的功能方面還存在很多問題和不確定性,在有些功能上更是漏洞百出,在軟件編程方面還遠遠沒有達到顛覆軟件編程產業(yè)的程度。
但是全網熱潮背后一定有深層次的原因:經過深度分析不難看出,其實ChatGPT引爆的不完全是AI里程碑式的技術革命,而是引爆一場全球互聯(lián)網入口的爭奪戰(zhàn)。
全球互聯(lián)網入口長期被谷歌占據,谷歌的搜索引擎業(yè)務占到全球市場份額的97%,谷歌內部有一個商業(yè)警戒系統(tǒng),只要公司業(yè)務受到威脅就會觸發(fā),其中最高級別是紅色告警。
谷歌(Google)公司1998年9月創(chuàng)立,自從公司成立以來,這個紅色警戒系統(tǒng)就從來沒有觸發(fā)過。然而2023年2月,谷歌瀏覽器的下載量從全球第一降到了第二,谷歌傳統(tǒng)的搜索引擎業(yè)務首次被微軟反超,系統(tǒng)自動觸發(fā)了紅色警戒系統(tǒng)。
微軟公司從誕生以來,從未在任何產品上投資超過100億,這次對Open AI 投資超過100個億,目的就是要把ChatGPT整合到微軟公司的所有產品中去。
微軟近期已經宣布將ChatGPT整合入微軟的搜索引擎Bing,沒過幾天,又宣布會將ChatGPT整合進Office辦公套件中去。用戶使用Office時就能體驗ChatGPT的對話功能。很明顯微軟就是要利用ChatGPT先入為主的優(yōu)勢,爭奪谷歌搜索引擎的市場份額,目前第一階段目標已經圓滿達到。
微軟一直都在厲兵秣馬,以前一直被谷歌、蘋果、亞馬遜壓得喘不動氣,現(xiàn)在終于開始了在全球互聯(lián)網入口的爭奪戰(zhàn)中的絕地反擊戰(zhàn)。
同樣的情況,在我國的互聯(lián)網企業(yè)中也有發(fā)生。在ChatGPT成功的示范效應帶動下,以及國家支持數字經濟發(fā)展兩個強力點的支撐下,相信不遠的將來,中國的AI 產品將像雨后春筍一樣拔地而起。
淺談未來我國人工智能發(fā)展趨勢
隨著科學技術的飛速發(fā)展,國家已經把人工智能作為戰(zhàn)略性新興產業(yè),作為新增長引擎加以扶持和培養(yǎng),人工智能的未來發(fā)展將會帶來更多的驚喜和機遇,下面就讓我們淺談一下我國人工智能發(fā)展趨勢。
在國家宏觀政策的大力支持下,我國的人工智能將迎來重大的發(fā)展機遇期,國內的人工智能企業(yè),互聯(lián)網企業(yè),科研機構應當抓住這個難得的機遇,為國家的數字經濟轉型發(fā)展作出應有的貢獻。
特別是華為、阿里巴巴,騰訊、百度、科大訊飛、字節(jié)跳動等等大型企業(yè)和科研單位,應該發(fā)揮各自優(yōu)勢強強聯(lián)手,他們有義務、有責任,承擔起這個時代賦予的歷史使命。
強化企業(yè)在研發(fā)投入中的主體地位,繼續(xù)加大企業(yè)研發(fā)費用,建立起金融支持企業(yè)在AI領域的創(chuàng)新工作機制,打通科技、產業(yè)、金融的全產業(yè)鏈條。
人工智能產業(yè)屬于新型的高科領域,目前世界上尚未形成占絕對主導的技術路徑依賴。
在世界產業(yè)生態(tài)也沒有形成絕對壁壘的人工智能開創(chuàng)初期,我們要結合國情把軟硬件協(xié)同發(fā)展,作為提升人工智能發(fā)展的主要手段,單純的數據與算法優(yōu)化已不能滿足我國人工智能產業(yè)發(fā)展需求。
面對這一發(fā)展契機,我國應強化人工智能產業(yè)發(fā)展的頂層設計,加強人工智能軟硬件協(xié)同布局。重點布局具有我國自主知識產權的“框架軟件+AI芯片”架構,構建起有利于我國人工智能發(fā)展的生態(tài)環(huán)境,力爭在人工智能領域取得主導優(yōu)勢。
類腦芯片研發(fā)屬于AI芯片的前瞻性領域,我國類腦芯片的研究尚處于理論階段,涉及的企業(yè)不多,應充分發(fā)揮國內高校以及科研院所力量進行前沿布局。
國際龍頭企業(yè)還沒有形成明確的技術及知識產權壁壘,IBM研制的TrueNorth類人腦計算有突破性進展,隨著存儲、邏輯、傳感技術的改進,將來類腦計算芯片有望取得更大的發(fā)展,在AI領域將發(fā)揮更大的作用。
結束語
總之,人工智能的未來發(fā)展將會是一個充滿機遇和挑戰(zhàn)的過程,隨著技術的不斷發(fā)展和成熟,人工智能已經開始滲透到我們日常生活的各個方面,人工智能不僅可以幫助改善人們的生活品質、豐富人們的娛樂生活,也將會在工業(yè)自動化、軍事裝備現(xiàn)代化、提高醫(yī)療診斷水平、提升教育能力,拓展學生的知識面等各個領域得到更加廣泛的應用,從而幫助我們更好地解決問題、提高效率、改善生活。
我們也需要保持警惕,推動建立人工智能安全可控的治理體系,積極面對技術發(fā)展中出現(xiàn)的各種問題和挑戰(zhàn)。
讓我們以開放的心態(tài)迎接新技術的出現(xiàn),寬容新技術存在的不足之處,在國家宏觀政策的大力支持下,發(fā)揮舉國體制的優(yōu)勢,積極推動人工智能與經濟社會深度融合,在重大應用場景中錘煉技術、升級迭代、培育市場,從而使我國的人工智能技術能夠為全人類社會的進步和發(fā)展做出更加積極的貢獻。
參考資料:
[1].ChatGPT翻開了硬幣的哪一面?北京郵電大學人工智能學院教授鄧偉洪、中國信通院云大所內容科技部副主任石霖
[2].采訪報道ChatGPT“火出圈”我們該“急眼”嗎?中國經濟網2023年2月20日
[3].OpenAI官網(ChatGPT:優(yōu)化對話的語言模型 (OpenAI.com))
[4].Interactive Learning from Policy-Dependent Human Feedback (MacGlashan et al. 2017)
[5].Deep Reinforcement Learning from Human Preferences (Christiano et al. 2017)
[6].ChatGPT: Optimizing Language Models for Dialogue (OpenAI 2022)
[7].Scaling Laws for Reward Model Overoptimization (Gao et al. 2022)
[8].Training a Helpful and Harmless Assistant with Reinforcement Learning from Human Feedback (Anthropic, 2022)
[9].Red Teaming Language Models to Reduce Harms: Methods, Scaling Behaviors, and Lessons Learned (Ganguli et al. 2022)
[10].Dynamic Planning in Open-Ended Dialogue using Reinforcement Learning (Cohen at al. 2022)