正在閱讀:

誰在反ChatGPT?

掃一掃下載界面新聞APP

誰在反ChatGPT?

機遇與風險并存。

圖片來源:界面新聞 范劍磊

文|鋅財經(jīng) 路世明

編輯|大風

科技突破不止會帶來變革,往往也會帶來一些潛在的風險。

自ChatGPT發(fā)布后,無數(shù)的用戶和企業(yè)仿佛看到了“未來”,投入到了狂熱的擁抱。然而在硬幣的另一面,ChatGPT也在經(jīng)歷一場“圍剿”。

在國家層面,繼意大利宣布禁用ChatGPT后,多國政府和企業(yè)開始調(diào)查或采取措施限制使用該軟件。在領域?qū)用妫▎讨稳A盛頓大學、巴黎政治學院在內(nèi)的全球多所高校,都已宣布禁止學生在其學校的設備和網(wǎng)絡上使用ChatGPT,以預防學生作弊的行為。

相比國家和某一領域,全球范圍內(nèi)的不少大型企業(yè),對于ChatGPT表現(xiàn)的更為“敏感”。

科技企業(yè)里,三星、軟銀、松下、LG、臺積電、SK海力士等均已宣布對員工使用ChatGPT的限制。金融企業(yè)里,摩根大通已禁止其員工使用 ChatGPT。電商領域里,亞馬遜也曾禁止團隊成員將機密客戶數(shù)據(jù)輸入ChatGPT......

多家企業(yè)之所以對ChatGPT保持非常謹慎的態(tài)度,甚至是限用,并非不明白生成式AI所意味著的時代機遇,而是在意ChatGPT對企業(yè)“隱私安全”造成的威脅。

企業(yè)越大,數(shù)據(jù)安全和隱私枷鎖余也會越重越牢固,自然也會更加謹慎地去對待類似ChatGPT的工具。

大廠“禁用”ChatGPT

不久之前,三星推出了一項新政策,要求員工不得在工作場所使用OpenAI的ChatGPT和谷歌Bard等生成式人工智能。

目前,三星員工被禁止在公司設備上使用人工智能工具,包括電腦、平板電腦、手機等。但員工仍可以在個人設備上使用人工智能工具,不過僅限于與工作無關的事情。備忘錄中還強調(diào),要求員工認真遵守安全準則,若違規(guī)并導致公司信息或數(shù)據(jù)泄露的話,員工將得到紀律處分,情節(jié)嚴重者將被解雇。

事實上,在三星這項“嚴厲”的新政策之前,全球范圍內(nèi),不少企業(yè)便陸續(xù)發(fā)布了“限制”自家員工使用ChatGPT的公告。

首先對ChatGPT發(fā)出“不友好”聲音的企業(yè),來自金融行業(yè)。

ChatGPT掀起熱潮不久后,今年2月,JP摩根大通、美國銀行、花旗、富國銀行等華爾街巨頭陸續(xù)表示將禁止或限制使用ChatGPT。據(jù)了解,摩根大通不準員工在辦公室使用ChatGPT,其表示,有關禁令并非源自任何特定事件,而是基于公司對第三方軟件的正常管控。

美國銀行例行提醒員工切勿使用未經(jīng)授權軟件時,也特別點名提到ChatGPT。德意志銀行更是表明,嚴禁員工在公司內(nèi)用ChatGPT,并從內(nèi)部阻斷連接OpenAI網(wǎng)站。而盡管高盛鼓勵編程人員采用AI來輔助編程,但禁止旗下交易員使用ChatGPT。

日本方面,軟銀、日立、富士通、日本瑞穗金融集團等企業(yè)也開始限制ChatGPT等交互式人工智能服務在商業(yè)運作中的使用。

相比金融行業(yè),科技行業(yè)的動作絲毫不慢。

今年3月初,臺積電發(fā)布了一系列內(nèi)部公告,提醒員工謹慎使用網(wǎng)絡工具如ChatGPT或Bing AI Chat等。除三星外,同屬韓國企業(yè)的全球第二大存儲芯片巨頭SK海力士亦稱“除必要時刻外”,禁止公司內(nèi)網(wǎng)使用ChatGPT。

不可否認,ChatGPT這樣的生成式AI對提高工作效率很有幫助,但對于這樣一個還不足夠成熟的AI工具來說,它所展現(xiàn)出的負面效應,并不小于它的正面效應。就如同一把雙刃劍,在沒有“劍鞘”作為一種保護機制出現(xiàn)之前,對于ChatGPT的“圍剿”絕對不會停止。

能夠預料的是,禁用ChatGPT的企業(yè),仍然會持續(xù)增加。

數(shù)據(jù)安全是核心原因

ChatGPT的火爆,實際上是“深度學習”大模型的成功。

生成式AI工具,離不開大數(shù)據(jù)的幫助。它的進化,需要海量的數(shù)據(jù)來訓練,通過感應器采集數(shù)據(jù),進行信息存儲、加工,通過算力進行計算,最后形成決策機制,進行反饋。龐大的數(shù)據(jù)訓練,造就了ChatGPT強大功能,但這也意味著,ChatGPT實際上在不斷地接觸各種對話,其中可能包含相關的敏感信息。

無論是個人、企業(yè),還是國家層面,機密數(shù)據(jù)、文件隱私,都有可能在使用過程中被ChatGPT采集到,從而被大規(guī)模地擴散。這些數(shù)據(jù)的泄露,也很有可能會對個人、企業(yè),甚至是國家造成重大的損失。

三星無疑是一個典型的“受害者”。

據(jù)了解,今年3月三星的半導體事業(yè)暨裝置解決方案事業(yè)部(DS)部門允許員工使用ChatGPT,隨后20天內(nèi)就發(fā)生了三起將公司內(nèi)部半導體數(shù)據(jù)上傳到ChatGPT的事件。

其中,員工A用ChatGPT幫自己查一段代碼的bug;員工B想用ChatGPT幫自己優(yōu)化一段代碼;員工C想先用AI語音助手Naver Clova將自己的會議錄音轉(zhuǎn)成文字,再用ChatGPT幫他總結一下會議內(nèi)容,做成摘要。

前兩起案件已分別導致三星公司的半導體設備測量資料、產(chǎn)品良率等機密內(nèi)容錄入到ChatGPT的學習資料庫中,這讓三星很是擔憂其數(shù)據(jù)將通過人工智能平臺最終落入其他用戶手中。

不止三星,數(shù)據(jù)安全服務Cyberhaven曾檢測到并阻止了其客戶公司160萬名員工中,4.2%的人將數(shù)據(jù)輸入ChatGPT的請求,因為存在泄露機密信息、客戶數(shù)據(jù)、源代碼或監(jiān)管信息的風險。

Cyberhaven還發(fā)現(xiàn),隨著ChatGPT的應用率越來越高,給它上傳企業(yè)數(shù)據(jù)的打工人數(shù)量也越來越多。一天之內(nèi)(3月14日),每10萬名員工就平均給ChatGPT發(fā)送了5267次次企業(yè)數(shù)據(jù)。

Cyberhaven數(shù)據(jù)顯示,在員工直接發(fā)給ChatGPT的企業(yè)數(shù)據(jù)中,有11%都是敏感數(shù)據(jù)。例如在一周內(nèi),10萬名員工給ChatGPT上傳了199份機密文件、173份客戶數(shù)據(jù)和159次源代碼。

和三星一樣,所有“限用”ChatGPT的企業(yè),無論處于什么領域,基本都是出于數(shù)據(jù)保護的考量,都非常擔憂第三方軟件訪問敏感信息帶來的風險。畢竟ChatGPT所處理的數(shù)據(jù)通常具有多樣性和復雜性,其數(shù)據(jù)的收集、存儲、傳輸、處理等各個環(huán)節(jié),都存在“合法性”問題。

隨著ChatGPT在自然語言處理領域的廣泛應用,人們面臨數(shù)據(jù)安全和隱私保護的挑戰(zhàn),正變得越來越巨大。

機遇與風險并存

技術發(fā)展史,也是人類的一部恐懼史。

15世紀的德國學者面對剛剛發(fā)明的古騰堡印刷機非常擔憂,認為這會讓他們有永遠也無法讀完的文獻,而他們的作品也不再稀缺,而且會導致大量抄寫員失業(yè)。

再到工業(yè)革命時期的“盧德運動”,工人們拆除編織機的關鍵零件,襲擊倉庫,并威脅采取更多的暴力行動。實際上這些操作機器的工人非常清楚設備的生產(chǎn)效率,他們采取行動并非針對機器,而是針對廠方降低工資、裁撤崗位和忽視生產(chǎn)安全的做法。

新技術問世后總會有一段過渡期,這也是社會對它關注最密切的時期。ChatGPT展現(xiàn)出的能力很強大,讓很多企業(yè)開始積極擁抱,也讓很多企業(yè)感到“害怕”。

數(shù)據(jù)安全問題的確是不得不提防的一點。越是大公司,或者越是有著數(shù)據(jù)安全和隱私枷鎖的公司,越會謹慎地去對待類似的工具。三星的做法算是“穩(wěn)妥”的,畢竟大型企業(yè)除了內(nèi)部數(shù)據(jù),更重要的是掌握著很多客戶數(shù)據(jù),一旦發(fā)生了數(shù)據(jù)泄露事件,后果不堪設想。

只是,有時候提防和運用并不沖突。

如何才能既能擁抱機遇,又能化解風險?對于這些大企業(yè)們來說,目前似乎只有一條路可選,即研發(fā)出自己ChatGPT。這樣不僅解決了風險,還能提高企業(yè)員工的工作效率。以三星來說,雖然“限用”ChatGPT,但并沒有完全禁止使用。

為了避免內(nèi)部信息泄露,三星計劃開發(fā)自己的內(nèi)部AI工具,供員工完成軟件開發(fā)和翻譯等工作。此外,三星還向旗下所有的手機以及平板電腦產(chǎn)品推送了微軟Bing AI更新,在這一更新完成后,三星用戶可直接通過手機或者平板使用微軟Bing AI。

除了企業(yè)的主動防范,ChatGPT無疑也需要加強對用戶隱私的保護,包括匿名化處理、數(shù)據(jù)去標識化、隱私保護算法等。特別是在數(shù)據(jù)共享和開放研究方面,ChatGPT需要遵循相關法律法規(guī)和倫理準則,采取有效的隱私保護措施,保障用戶的隱私權益。

此外,ChatGPT需要積極參與到數(shù)據(jù)安全和隱私保護的標準制定和監(jiān)管政策建設中。通過制定統(tǒng)一的數(shù)據(jù)安全和隱私保護標準,加強監(jiān)管和法律保障,促進數(shù)據(jù)共享和合作,從而更好地保護用戶的隱私和數(shù)據(jù)安全。

本文為轉(zhuǎn)載內(nèi)容,授權事宜請聯(lián)系原著作權人。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

誰在反ChatGPT?

機遇與風險并存。

圖片來源:界面新聞 范劍磊

文|鋅財經(jīng) 路世明

編輯|大風

科技突破不止會帶來變革,往往也會帶來一些潛在的風險。

自ChatGPT發(fā)布后,無數(shù)的用戶和企業(yè)仿佛看到了“未來”,投入到了狂熱的擁抱。然而在硬幣的另一面,ChatGPT也在經(jīng)歷一場“圍剿”。

在國家層面,繼意大利宣布禁用ChatGPT后,多國政府和企業(yè)開始調(diào)查或采取措施限制使用該軟件。在領域?qū)用妫▎讨稳A盛頓大學、巴黎政治學院在內(nèi)的全球多所高校,都已宣布禁止學生在其學校的設備和網(wǎng)絡上使用ChatGPT,以預防學生作弊的行為。

相比國家和某一領域,全球范圍內(nèi)的不少大型企業(yè),對于ChatGPT表現(xiàn)的更為“敏感”。

科技企業(yè)里,三星、軟銀、松下、LG、臺積電、SK海力士等均已宣布對員工使用ChatGPT的限制。金融企業(yè)里,摩根大通已禁止其員工使用 ChatGPT。電商領域里,亞馬遜也曾禁止團隊成員將機密客戶數(shù)據(jù)輸入ChatGPT......

多家企業(yè)之所以對ChatGPT保持非常謹慎的態(tài)度,甚至是限用,并非不明白生成式AI所意味著的時代機遇,而是在意ChatGPT對企業(yè)“隱私安全”造成的威脅。

企業(yè)越大,數(shù)據(jù)安全和隱私枷鎖余也會越重越牢固,自然也會更加謹慎地去對待類似ChatGPT的工具。

大廠“禁用”ChatGPT

不久之前,三星推出了一項新政策,要求員工不得在工作場所使用OpenAI的ChatGPT和谷歌Bard等生成式人工智能。

目前,三星員工被禁止在公司設備上使用人工智能工具,包括電腦、平板電腦、手機等。但員工仍可以在個人設備上使用人工智能工具,不過僅限于與工作無關的事情。備忘錄中還強調(diào),要求員工認真遵守安全準則,若違規(guī)并導致公司信息或數(shù)據(jù)泄露的話,員工將得到紀律處分,情節(jié)嚴重者將被解雇。

事實上,在三星這項“嚴厲”的新政策之前,全球范圍內(nèi),不少企業(yè)便陸續(xù)發(fā)布了“限制”自家員工使用ChatGPT的公告。

首先對ChatGPT發(fā)出“不友好”聲音的企業(yè),來自金融行業(yè)。

ChatGPT掀起熱潮不久后,今年2月,JP摩根大通、美國銀行、花旗、富國銀行等華爾街巨頭陸續(xù)表示將禁止或限制使用ChatGPT。據(jù)了解,摩根大通不準員工在辦公室使用ChatGPT,其表示,有關禁令并非源自任何特定事件,而是基于公司對第三方軟件的正常管控。

美國銀行例行提醒員工切勿使用未經(jīng)授權軟件時,也特別點名提到ChatGPT。德意志銀行更是表明,嚴禁員工在公司內(nèi)用ChatGPT,并從內(nèi)部阻斷連接OpenAI網(wǎng)站。而盡管高盛鼓勵編程人員采用AI來輔助編程,但禁止旗下交易員使用ChatGPT。

日本方面,軟銀、日立、富士通、日本瑞穗金融集團等企業(yè)也開始限制ChatGPT等交互式人工智能服務在商業(yè)運作中的使用。

相比金融行業(yè),科技行業(yè)的動作絲毫不慢。

今年3月初,臺積電發(fā)布了一系列內(nèi)部公告,提醒員工謹慎使用網(wǎng)絡工具如ChatGPT或Bing AI Chat等。除三星外,同屬韓國企業(yè)的全球第二大存儲芯片巨頭SK海力士亦稱“除必要時刻外”,禁止公司內(nèi)網(wǎng)使用ChatGPT。

不可否認,ChatGPT這樣的生成式AI對提高工作效率很有幫助,但對于這樣一個還不足夠成熟的AI工具來說,它所展現(xiàn)出的負面效應,并不小于它的正面效應。就如同一把雙刃劍,在沒有“劍鞘”作為一種保護機制出現(xiàn)之前,對于ChatGPT的“圍剿”絕對不會停止。

能夠預料的是,禁用ChatGPT的企業(yè),仍然會持續(xù)增加。

數(shù)據(jù)安全是核心原因

ChatGPT的火爆,實際上是“深度學習”大模型的成功。

生成式AI工具,離不開大數(shù)據(jù)的幫助。它的進化,需要海量的數(shù)據(jù)來訓練,通過感應器采集數(shù)據(jù),進行信息存儲、加工,通過算力進行計算,最后形成決策機制,進行反饋。龐大的數(shù)據(jù)訓練,造就了ChatGPT強大功能,但這也意味著,ChatGPT實際上在不斷地接觸各種對話,其中可能包含相關的敏感信息。

無論是個人、企業(yè),還是國家層面,機密數(shù)據(jù)、文件隱私,都有可能在使用過程中被ChatGPT采集到,從而被大規(guī)模地擴散。這些數(shù)據(jù)的泄露,也很有可能會對個人、企業(yè),甚至是國家造成重大的損失。

三星無疑是一個典型的“受害者”。

據(jù)了解,今年3月三星的半導體事業(yè)暨裝置解決方案事業(yè)部(DS)部門允許員工使用ChatGPT,隨后20天內(nèi)就發(fā)生了三起將公司內(nèi)部半導體數(shù)據(jù)上傳到ChatGPT的事件。

其中,員工A用ChatGPT幫自己查一段代碼的bug;員工B想用ChatGPT幫自己優(yōu)化一段代碼;員工C想先用AI語音助手Naver Clova將自己的會議錄音轉(zhuǎn)成文字,再用ChatGPT幫他總結一下會議內(nèi)容,做成摘要。

前兩起案件已分別導致三星公司的半導體設備測量資料、產(chǎn)品良率等機密內(nèi)容錄入到ChatGPT的學習資料庫中,這讓三星很是擔憂其數(shù)據(jù)將通過人工智能平臺最終落入其他用戶手中。

不止三星,數(shù)據(jù)安全服務Cyberhaven曾檢測到并阻止了其客戶公司160萬名員工中,4.2%的人將數(shù)據(jù)輸入ChatGPT的請求,因為存在泄露機密信息、客戶數(shù)據(jù)、源代碼或監(jiān)管信息的風險。

Cyberhaven還發(fā)現(xiàn),隨著ChatGPT的應用率越來越高,給它上傳企業(yè)數(shù)據(jù)的打工人數(shù)量也越來越多。一天之內(nèi)(3月14日),每10萬名員工就平均給ChatGPT發(fā)送了5267次次企業(yè)數(shù)據(jù)。

Cyberhaven數(shù)據(jù)顯示,在員工直接發(fā)給ChatGPT的企業(yè)數(shù)據(jù)中,有11%都是敏感數(shù)據(jù)。例如在一周內(nèi),10萬名員工給ChatGPT上傳了199份機密文件、173份客戶數(shù)據(jù)和159次源代碼。

和三星一樣,所有“限用”ChatGPT的企業(yè),無論處于什么領域,基本都是出于數(shù)據(jù)保護的考量,都非常擔憂第三方軟件訪問敏感信息帶來的風險。畢竟ChatGPT所處理的數(shù)據(jù)通常具有多樣性和復雜性,其數(shù)據(jù)的收集、存儲、傳輸、處理等各個環(huán)節(jié),都存在“合法性”問題。

隨著ChatGPT在自然語言處理領域的廣泛應用,人們面臨數(shù)據(jù)安全和隱私保護的挑戰(zhàn),正變得越來越巨大。

機遇與風險并存

技術發(fā)展史,也是人類的一部恐懼史。

15世紀的德國學者面對剛剛發(fā)明的古騰堡印刷機非常擔憂,認為這會讓他們有永遠也無法讀完的文獻,而他們的作品也不再稀缺,而且會導致大量抄寫員失業(yè)。

再到工業(yè)革命時期的“盧德運動”,工人們拆除編織機的關鍵零件,襲擊倉庫,并威脅采取更多的暴力行動。實際上這些操作機器的工人非常清楚設備的生產(chǎn)效率,他們采取行動并非針對機器,而是針對廠方降低工資、裁撤崗位和忽視生產(chǎn)安全的做法。

新技術問世后總會有一段過渡期,這也是社會對它關注最密切的時期。ChatGPT展現(xiàn)出的能力很強大,讓很多企業(yè)開始積極擁抱,也讓很多企業(yè)感到“害怕”。

數(shù)據(jù)安全問題的確是不得不提防的一點。越是大公司,或者越是有著數(shù)據(jù)安全和隱私枷鎖的公司,越會謹慎地去對待類似的工具。三星的做法算是“穩(wěn)妥”的,畢竟大型企業(yè)除了內(nèi)部數(shù)據(jù),更重要的是掌握著很多客戶數(shù)據(jù),一旦發(fā)生了數(shù)據(jù)泄露事件,后果不堪設想。

只是,有時候提防和運用并不沖突。

如何才能既能擁抱機遇,又能化解風險?對于這些大企業(yè)們來說,目前似乎只有一條路可選,即研發(fā)出自己ChatGPT。這樣不僅解決了風險,還能提高企業(yè)員工的工作效率。以三星來說,雖然“限用”ChatGPT,但并沒有完全禁止使用。

為了避免內(nèi)部信息泄露,三星計劃開發(fā)自己的內(nèi)部AI工具,供員工完成軟件開發(fā)和翻譯等工作。此外,三星還向旗下所有的手機以及平板電腦產(chǎn)品推送了微軟Bing AI更新,在這一更新完成后,三星用戶可直接通過手機或者平板使用微軟Bing AI。

除了企業(yè)的主動防范,ChatGPT無疑也需要加強對用戶隱私的保護,包括匿名化處理、數(shù)據(jù)去標識化、隱私保護算法等。特別是在數(shù)據(jù)共享和開放研究方面,ChatGPT需要遵循相關法律法規(guī)和倫理準則,采取有效的隱私保護措施,保障用戶的隱私權益。

此外,ChatGPT需要積極參與到數(shù)據(jù)安全和隱私保護的標準制定和監(jiān)管政策建設中。通過制定統(tǒng)一的數(shù)據(jù)安全和隱私保護標準,加強監(jiān)管和法律保障,促進數(shù)據(jù)共享和合作,從而更好地保護用戶的隱私和數(shù)據(jù)安全。

本文為轉(zhuǎn)載內(nèi)容,授權事宜請聯(lián)系原著作權人。