文|娛樂(lè)資本論 James
北京時(shí)間周二凌晨,蘋(píng)果公司發(fā)布了關(guān)于AI的最新更新,并給其AI功能取了一個(gè)雙關(guān)的稱呼:“果工智能”(Apple Intelligence)。在這次發(fā)布會(huì)上雖然沒(méi)有太多驚艷之處,但“隱私”這個(gè)概念被反復(fù)強(qiáng)調(diào)了十幾次。
即使如此,也有一位“資深網(wǎng)友”對(duì)此不以為然,這就是埃隆·馬斯克。
01 怒噴蘋(píng)果和OpenAI,馬斯克是否反應(yīng)過(guò)度?
在蘋(píng)果發(fā)布會(huì)之后,馬斯克痛批蘋(píng)果與OpenAI之間的合作,認(rèn)為這無(wú)異于將用戶的隱私信息毫無(wú)保留地轉(zhuǎn)手給OpenAI,并配了一張梗圖,稱蘋(píng)果作為用戶隱私被出賣給OpenAI的中間商。
他甚至提到,如果蘋(píng)果對(duì)ChatGPT是系統(tǒng)級(jí)別的集成,他將不允許員工將iPhone帶入特斯拉,如果訪客帶著iPhone進(jìn)來(lái),也需要把手機(jī)鎖在前臺(tái)的“法拉第籠”里面。
馬斯克本人(而不是高仿號(hào))發(fā)表此言論后,大部分科技媒體都持不以為然的態(tài)度,指出他對(duì)于蘋(píng)果實(shí)現(xiàn)設(shè)備AI的方式缺乏足夠的理解。
根據(jù)蘋(píng)果的官方演示,在Siri等地調(diào)動(dòng)ChatGPT的方式,是首先會(huì)詢問(wèn)用戶是否引用ChatGPT,在此之后代為做一次性的簡(jiǎn)單查詢。這其中,ChatGPT就像網(wǎng)絡(luò)搜索一樣,只不過(guò)Siri之前調(diào)用搜索引擎,會(huì)帶來(lái)一大串雜亂的搜索結(jié)果,現(xiàn)在改為直接用GPT輸出一個(gè)段落的答案,感覺(jué)更好。
如果僅限于此,網(wǎng)傳Siri在中國(guó)的AI能力會(huì)被替換成百度的文心一言,那效果其實(shí)也不會(huì)差太多,因?yàn)檫@種自然語(yǔ)言替代主要是集中于搜索功能。其實(shí),百度的AI搜索結(jié)果精選,效果比谷歌英文版的還好一些——后者因?yàn)槠孑饨Y(jié)果太多,不得不臨時(shí)降低了在結(jié)果頁(yè)面的展示頻率。
蘋(píng)果推出的其他AI功能,依靠手機(jī)本身的芯片運(yùn)算,或轉(zhuǎn)給蘋(píng)果自己的網(wǎng)絡(luò)端的大模型,這些運(yùn)算并不依賴ChatGPT或其它第三方大模型。蘋(píng)果還指出,臨時(shí)需要上傳的數(shù)據(jù)會(huì)經(jīng)過(guò)一個(gè)與目前iCloud等單獨(dú)分開(kāi)的服務(wù)器,并隱藏相關(guān)可識(shí)別的用戶信息,甚至蘋(píng)果內(nèi)部員工也無(wú)法訪問(wèn)。
我們普通消費(fèi)者也沒(méi)法證實(shí)蘋(píng)果的單方面陳述,但毋庸置疑的是,“隱私”現(xiàn)在確實(shí)是蘋(píng)果設(shè)備相對(duì)于Android等其他陣營(yíng)的一個(gè)巨大賣點(diǎn)。特別是在后喬布斯時(shí)代,蘋(píng)果逐漸陷入創(chuàng)新乏力、“擠牙膏、割韭菜”的質(zhì)疑聲音中。為了普通用戶難以感知的升級(jí),每年多花幾千塊錢換新設(shè)備,這種必要性確實(shí)越來(lái)越受到質(zhì)疑。所以,無(wú)論是否年年換新,一部分蘋(píng)果用戶寧愿舍棄微信雙開(kāi)、通話錄音等便利,可能正是為了那份對(duì)隱私極度重視,帶來(lái)的安全和清靜的感覺(jué)。
馬斯克所說(shuō)的質(zhì)疑,更多其實(shí)是針對(duì)OpenAI一方表達(dá)不滿。馬斯克退出OpenAI管理層,之后又對(duì)其提起訴訟,其核心訴求在于讓OpenAI回到創(chuàng)業(yè)之初的非營(yíng)利承諾,而不是只顧著賺錢。這一點(diǎn)比較抽象,但對(duì)馬斯克來(lái)說(shuō)則是很重要的問(wèn)題。與他持有類似觀念的還有OpenAI的“超級(jí)對(duì)齊”團(tuán)隊(duì),他們希望充分監(jiān)管人工智能的發(fā)展,確保它不會(huì)失控。但該團(tuán)隊(duì)在去年底的一次“宮斗”中失敗而解散。
這些爭(zhēng)論對(duì)于普通人是很難理解的。大家更關(guān)心的是,馬斯克的質(zhì)疑是不是真實(shí)的?即使不是蘋(píng)果,其它AI大模型是否也很容易泄露用戶隱私?這一點(diǎn)迫切需要一個(gè)明確的答案。
02 使用AI大模型,會(huì)被“開(kāi)盒”嗎?
簡(jiǎn)單的回答就是,AI產(chǎn)品有可能發(fā)生隱私泄露,但截至目前,隱私泄露的成因是與AI無(wú)關(guān)的,更多是傳統(tǒng)的安全威脅。
我們使用AI出于個(gè)人或工作目的,所以害怕泄露個(gè)人隱私或工作機(jī)密。具體危害大小,分兩種情況:一種是泄露后能定位到你本人,直接“開(kāi)盒”,另一種是無(wú)法溯源的泄露。
能定位本人的泄露情況最危險(xiǎn),這可能是因?yàn)槟阍谑韬龃笠獾那闆r下勾選了某些選項(xiàng),使原本私密的信息被設(shè)定為公開(kāi)范圍分享。字節(jié)旗下大模型“豆包”近日的風(fēng)波便是一例。
正如視智未來(lái)此前報(bào)道提到的,起初,豆包被指使用大量AI聊天結(jié)果頁(yè)面,污染搜索引擎結(jié)果。這種行為導(dǎo)致谷歌等搜索引擎,以及依賴它們的Perplexity等AI搜索產(chǎn)品,抓取的結(jié)果頁(yè)面也是AI生成的,導(dǎo)致AI自我引用,結(jié)果質(zhì)量螺旋式下降。然而,字節(jié)此舉應(yīng)該不是刻意污染互聯(lián)網(wǎng)環(huán)境,他們可能只是沒(méi)有意識(shí)到,對(duì)AI大模型使用同一招數(shù)時(shí),事件的性質(zhì)發(fā)生了改變。
豆包此舉最大的問(wèn)題在于,這些分享的頁(yè)面來(lái)自真人用戶與豆包的交互過(guò)程。用戶分享某段豆包對(duì)話時(shí),分享頁(yè)面會(huì)自動(dòng)勾選“將對(duì)話內(nèi)容分享到整個(gè)網(wǎng)絡(luò)”的選項(xiàng),同時(shí)也沒(méi)有7天/30天有效期、鏈接帶密碼等常見(jiàn)的選項(xiàng)。在不注意的前提下,可能會(huì)讓你沒(méi)有察覺(jué)到“我本來(lái)只想把這段共享給我的微信群而已”。
當(dāng)前,字節(jié)跳動(dòng)已取消這種SEO嘗試,并下架了據(jù)稱多達(dá)2000多萬(wàn)條的AI對(duì)話頁(yè)面。
可以定位到人的信息泄露還有其它情況。由于種種原因,我們可能需要與別人“拼車”使用ChatGPT、Midjourney等服務(wù)。使用這個(gè)賬號(hào)的歷史記錄也是共享的,所以你可以看到別人的工作內(nèi)容,并且通過(guò)這些記錄與他本人對(duì)應(yīng)起來(lái)。當(dāng)一個(gè)共享賬號(hào)中長(zhǎng)時(shí)間出現(xiàn)某家公司的具體信息,我們自然可以認(rèn)為,其中涉及的未發(fā)布產(chǎn)品或戰(zhàn)略計(jì)劃等信息很可能是真實(shí)的。
另一種泄露情況是不可定位到發(fā)布者本人的,主要是指輸入的內(nèi)容被用作訓(xùn)練大模型,并在某種情況下被吐出。但這種情形一般都伴隨著嚴(yán)重的幻覺(jué),所以幾乎不可能100%匹配你當(dāng)時(shí)輸入的隱私內(nèi)容。
在2023年ChatGPT剛剛興起時(shí),軟銀、日立等多家大型日企出臺(tái)政策,禁止員工使用ChatGPT的公開(kāi)服務(wù)。一些企業(yè)后來(lái)購(gòu)買了企業(yè)版大模型服務(wù),由官方承諾對(duì)機(jī)密內(nèi)容的托管是安全的,甚至可以選擇在公司內(nèi)的服務(wù)器部署。至于最近非?;鸬摹癆I PC”,其本質(zhì)也是使用高算力芯片,將一些原本需要聯(lián)網(wǎng)的大模型運(yùn)算改為本地生成,避免數(shù)據(jù)上傳到遠(yuǎn)程服務(wù)器,而可能發(fā)生的泄漏情況。
以上兩種情況是與AI能力相關(guān)的隱私泄露風(fēng)險(xiǎn),但這些問(wèn)題發(fā)生的概率很低,并且只要更改使用習(xí)慣,也很大程度上可以避免。
03 更值得關(guān)注的隱私危機(jī),不僅限于AI
與這些相比,真正值得注意的隱私泄露風(fēng)險(xiǎn),發(fā)生在其他地方。
多數(shù)大模型開(kāi)發(fā)商在數(shù)據(jù)收集、存儲(chǔ)和跨境傳輸?shù)确矫娴陌踩U夏芰τ邢蕖1M管國(guó)內(nèi)的政策在大模型備案時(shí),對(duì)其安全能力有基本要求,但客觀上,小公司或初創(chuàng)團(tuán)隊(duì)的“技能樹(shù)”多點(diǎn)在了研發(fā)方面,在安全運(yùn)營(yíng)方面確實(shí)可能有所欠缺。需要指出的是,這方面的隱私泄露風(fēng)險(xiǎn)是普遍存在的,并不是只有AI公司才有的。
讓我們把視線轉(zhuǎn)回到嚴(yán)肅批評(píng)蘋(píng)果和OpenAI的馬斯克身上。既然他對(duì)隱私如此看重,他自己的產(chǎn)業(yè)是否有過(guò)隱私泄露的歷史呢?答案是肯定的。
特斯拉曾不止一次發(fā)生過(guò)用戶數(shù)據(jù)泄露風(fēng)波,不過(guò)較大的幾次都是由于內(nèi)部員工泄露所致。
在國(guó)內(nèi)造車“新勢(shì)力”中,也有一些廠商曾收到職業(yè)黑客的敲詐勒索,或是公開(kāi)了車主的信息數(shù)據(jù)庫(kù)等。這是國(guó)內(nèi)眾多個(gè)人信息在暗網(wǎng)“倒賣”的案例之一。如果類似事情發(fā)生在AI工具中,那并不稀奇,但這些事故與AI技術(shù)的關(guān)系不大。
作為普通的AIGC用戶,我們要如何盡可能地保護(hù)自己,以避免隱私泄露的意外發(fā)生?
首先,按照蘋(píng)果官方的介紹,當(dāng)你在使用iOS/macOS的AI相關(guān)服務(wù)時(shí),這些過(guò)程很難向OpenAI等第三方泄露隱私。如果你之前信任蘋(píng)果的iCloud等服務(wù),也可以繼續(xù)放心使用“果工智能”。
對(duì)于其他AI服務(wù),在使用過(guò)程中,應(yīng)盡量避免輸入個(gè)人和私密信息。即使使用Character.AI或類似的陪伴服務(wù),它們必須通過(guò)讀取你的個(gè)人隱私來(lái)變得更懂你、更貼心,你也需要保持警惕。
在拼車使用ChatGPT等賬號(hào)時(shí),如果是為公司工作,最好在輸入過(guò)程中隱藏具體公司信息,可以使用一鍵替換的方式,并且在獲得生成結(jié)果后,立即刪除這段對(duì)話??梢酝ㄟ^(guò)將真實(shí)事件以“我有一個(gè)朋友”的方式轉(zhuǎn)述,使用化名或代號(hào)替代真實(shí)公司、產(chǎn)品和地域信息,盡量避免將真實(shí)信息告訴在線大模型。
在使用諸如AI Pin、Rabbit R1或Meta-雷朋太陽(yáng)鏡等AI硬件時(shí),它們希望你的輸入是多模態(tài)的,例如對(duì)著攝像頭問(wèn)“這朵花是什么”。這種情況下,AI硬件可能要求24小時(shí)授權(quán)攝像頭和麥克風(fēng)的訪問(wèn)。這本身存在較高的隱私泄露風(fēng)險(xiǎn),因此需要權(quán)衡安全性和便利性的利弊。
總體而言,使用AI服務(wù)就算不幸發(fā)生了隱私泄露,在目前,這也跟AI沒(méi)有特別的關(guān)系,而是任何一家互聯(lián)網(wǎng)公司都面臨的同樣的風(fēng)險(xiǎn)。了解這一點(diǎn),可能會(huì)讓你更放心地繼續(xù)使用大模型等AI產(chǎn)品。