正在閱讀:

算法的“毒泡泡”,當真可以戒掉嗎?

掃一掃下載界面新聞APP

算法的“毒泡泡”,當真可以戒掉嗎?

想要逃離乃至對抗算法,似乎并不是一件容易的事情。

文|Alter聊科技 張賀飛

編輯|沈潔

關掉個性化推薦功能后,林陌陷入了深深的焦慮。

“以前打開今日頭條,首頁里總會有很多自己感興趣的內(nèi)容,雖然覺得自己的可能被算法裹挾了,但真的節(jié)省了很多不必要的信息篩選?,F(xiàn)在關掉了個性化推薦,滿屏都是和自己無關的垃圾信息。”

《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》正式實施后,不少APP上線了算法關閉按鈕,允許用戶在后臺關掉“個性化推薦”。向來對算法推薦有微辭的林陌,第一時間就關掉了多個APP的推薦功能,但結果并不是預想中的那般。

“本來可以在工作間隙刷刷喜歡的短視頻或圖文內(nèi)容,可在關掉算法推薦后,內(nèi)容的匹配度大不如前,在屏幕上下滑好幾頁都找不到喜歡的內(nèi)容,碎片化時間都浪費在了找內(nèi)容上,而且廣告推薦一個沒少?!?/p>

像林陌這樣的用戶顯然不在少數(shù),長期生活在算法編織的環(huán)境中,本能上有一種被算法支配的恐懼,卻也在無形中養(yǎng)成了對算法的依賴,想要逃離乃至對抗算法,似乎并不是一件容易的事情。

01 “有毒”的算法

尼爾·波茲曼曾在《技術壟斷》一書中斷言:每一種新技術都既是包袱又是恩賜,不是非此即彼的結果,而是利弊同在的產(chǎn)物。

算法的出現(xiàn)、應用和演變,準確地佐證了波茲曼的斷言。算法本質(zhì)上是一種分析、預測的數(shù)學技術,強調(diào)的是相關性,可以用來提高信息和商品推薦的準確性,也有利于降低用戶的時間成本。然而法律監(jiān)管和用戶意識的“滯后”,再加上算法和互聯(lián)網(wǎng)商業(yè)模式的深度捆綁,逐漸滋生了許多亂象。

最早被討論的是“信息繭房”。這是哈佛大學法學院教授凱斯·桑斯坦在《網(wǎng)絡共和國》中提出的概念,公眾在信息傳播過程中會過度偏向自身感興趣的內(nèi)容,減少和其他信息的接觸,不知不覺間為自己制造了一個“信息繭房”,漸漸沉浸在一個越來越窄的世界,甚至產(chǎn)生一些極端的認知。

桑斯坦提出“信息繭房”概念的時間是2006年,可由于概念本身過于學術化,加上“算法推薦”在那個時候還是一個相對陌生的詞匯,并未被太多人所關注。直到移動互聯(lián)網(wǎng)浪潮的到來,一些創(chuàng)業(yè)者開始用算法去討好用戶,不斷猜測并推薦用戶偏好的內(nèi)容,以增強所謂的用戶粘性和用戶時長,“信息繭房”逐漸成了一種常態(tài)化的社會現(xiàn)象。

但算法的弊端被大多數(shù)人聲討的導火索,卻是和用戶利益直接相關的大數(shù)據(jù)殺熟。電商平臺、出行APP、外賣平臺等都被曝出大數(shù)據(jù)殺熟的案例,系統(tǒng)會根據(jù)用戶標簽推送不同的折扣,同一件商品給新用戶比較低的價格,而老用戶的價格要明顯高一些。北京消費者協(xié)會曾對“殺熟”問題進行調(diào)查問卷,過半用戶表示經(jīng)歷過“大數(shù)據(jù)殺熟”。

不過算法在輿論場上的公開抨擊,還要等到“數(shù)據(jù)隱私”的發(fā)酵。剛剛在社交網(wǎng)站上聊到某件商品,轉身就出現(xiàn)在了電商平臺的推薦頁面,甚至有網(wǎng)友吐槽自己的電話內(nèi)容可能被電商APP監(jiān)聽。個中的因果關系其實并不難解釋,算法的訓練離不開數(shù)據(jù)原料,用戶的瀏覽記錄、停留時長、興趣愛好等都被平臺偷偷記錄,而為了算法推薦的準確性,一些平臺不無越界侵犯用戶隱私的嫌疑。

借用一個有些陰謀論色彩的說法:就像是一個溫水煮青蛙的過程,先用算法推薦構建了一張張封閉的“信息繭房”,生活在“繭房”的用戶成為一茬茬被收割的對象,至于收割的方式,或是大數(shù)據(jù)殺熟,或是監(jiān)聽用戶隱私……至此,算法不再是“沒有價值觀”的技術名詞,開始和“毒”字掛了鉤。

02 “靴子”終落地

當算法被越來越多人詬病,一步步走向污名化的時候,對平臺的算法推薦進行治理的呼吁愈演愈烈,監(jiān)管的靴子陸續(xù)落地。

前面提到的《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》就是相應的產(chǎn)物。由網(wǎng)信辦在2021年8月份提出,并于2022年3月1日正式施行?!肮芾硪?guī)定”的矛頭直指算法推薦功能,提出算法推薦服務提供者應當向用戶提供不針對個人特征的選項,或者向用戶提供便捷的關閉算法推薦服務的選項。

截止到目前,不少互聯(lián)網(wǎng)大廠已經(jīng)響應號召,微信、抖音、淘寶、美團、百度、微博、小紅書等熱門APP,均上線了個性化內(nèi)容推薦和個性化廣告推薦的關閉按鈕,只是在執(zhí)行力度上仍有所保留。

比如網(wǎng)信辦規(guī)定平臺要在顯著位置上線算法關閉鍵,現(xiàn)實中很多APP將這一功能隱藏的非常深。以今日頭條為例,想要關掉“個性化推薦”功能,需要打開APP、點擊“我的”、找到“隱私設置”、打開“個性化推薦設置”、關掉“個性化推薦”等至少5個步驟,關閉入口隱藏的比較深且操作繁瑣。

即便監(jiān)管的靴子已經(jīng)落地,而且留下了近7個月的整改時間,不少APP應付監(jiān)管的態(tài)度卻非常微妙,乃至存在對抗監(jiān)管的可能。畢竟算法推薦早已是許多平臺的流量密碼,一旦用戶關掉“個性化推薦”,可能讓用戶的打開頻率變低、停留時長變短,進而影響平臺賴以生存的廣告收入。

于是一些平臺并未對非算法推薦進行產(chǎn)品優(yōu)化,采取了“一刀切”的產(chǎn)品邏輯,用戶在關掉“個性化推薦”后,幾乎找不到符合興趣的內(nèi)容,本質(zhì)上在逼迫用戶二選一:要么犧牲掉用戶體驗,要么乖乖回歸算法推薦。

這還只是觸及了算法推薦的蛋糕,倘若進一步涉及到商品推薦、隱私保護等環(huán)節(jié),不排除一些平臺會給出更加狡詐的應對策略?;蛟S這才是“技術霸凌”的題中之意,不只是平臺利用技術進行了多少越界行為,還涉及到對用戶行為的綁架,想要逃離“算法陷阱”,必須要付出足夠大的代價。

讓人沮喪的是,算法規(guī)則在時間的推移下越來越復雜,對大部分用戶而言就是一個看不透的“黑箱”,無法理解算法的運作原理,也不知曉有哪些濫用的行為??赡苤皇窃谀硞€短視頻上多停留了幾秒,只是打開某個商品鏈接忘記關閉,就會被平臺記錄、利用算法分析,無形中編織了一張?zhí)硬坏舻木W(wǎng)。

至少在監(jiān)管對“算法推薦”動刀時,已經(jīng)驗證了一個不太樂觀的事實:大多數(shù)用戶很難走出算法的“圍城”,看似被賦予了拒絕的權利,想要行使權力的難度和代價,卻會讓大多數(shù)人放棄改變的想法。

03 戒不掉的“癮”

正如德國存在主義哲學家雅斯貝爾斯的觀點:“技術僅是一種手段,它本身并無善惡,一切取決于人從中造出什么,它為什么目的而服務于人?!?/p>

這種“技術無罪”的理念,在國內(nèi)衍生出了“算法沒有價值觀”的結論,同時也成了一些人為算法推薦“洗地”的理論根源。譬如“信息繭房”的話題引發(fā)公開討論時,某知名自媒體在文章中赫然寫道:“如果說我們真的需要一條擺脫所謂信息繭房的技術之路,算法顯然是修路者之一,它肯定不是路障?!?/p>

其中的底層邏輯往往建立在普羅大眾的“自律”上,如果你不想被“信息繭房”控制,只要主動跳出自己的“舒適圈”就可以,主動去接觸那些不愿接觸的信息,而非把責任全部歸咎于外部的客觀原因。

此類觀點看似難以辯駁,卻選擇性忽略了另一個既定現(xiàn)實:每每提到移動互聯(lián)網(wǎng)時代的創(chuàng)始人,“洞悉人性”可以說是時常出現(xiàn)的一個評價,張一鳴、黃崢等都曾被媒體這般評論。折射到算法誘發(fā)的一系列問題上,那些“始作俑者”所擅長的,正是費盡心思地讓用戶上癮,然后毀掉你的自律。

普林斯頓大學心理學博士亞當·奧爾特,在《欲罷不能》中特意解釋了互聯(lián)網(wǎng)的種種“上癮”行為,并將其細分為6個要素,即預設可望而不可即的誘人目標、提供不可抗拒的積極反饋、毫不費力的讓用戶感到進步、給予逐漸升級的挑戰(zhàn)、營造未完成的緊張感、增加令人癡迷的社會互動。

如果說奧爾特是從產(chǎn)品經(jīng)理的角度,透析了游戲、短視頻等產(chǎn)品引導用戶上癮的原理,著名戰(zhàn)略問題專家布熱津斯基則從上帝視角提出了著名的奶頭樂理論:世界上80%的人口將因生產(chǎn)力提升被邊緣化,為了安慰社會中“被遺棄”的人,方法之一就是讓企業(yè)大批量制造“奶頭”——讓令人沉迷的消遣娛樂和充滿感官刺激的產(chǎn)品填滿人們的生活,進而沉浸在“快樂”中不知不覺地喪失思考能力。

直接將算法視為奶頭樂理論的“幫兇”,無疑有一些武斷,可毋庸置疑的事實在于,算法強化了用戶的即時滿足心理,放大了多巴胺的刺激和誘惑,讓大多數(shù)用戶漸漸適應了“娛樂至死”的狀態(tài)。

令人遺憾的地方正在于此,極大多數(shù)用戶不會主動克制自己,習慣性地接受算法的推薦內(nèi)容,讓算法收集自己的數(shù)據(jù),無意識地告訴算法哪些是自己喜歡的內(nèi)容,最終被框定在一個看不見的“舒適區(qū)”中。即使監(jiān)管層面已經(jīng)做出了反應,為用戶打開了逃離算法的大門,可想讓用戶靠自律、靠隱私意識的覺醒拒絕成癮,并不是一條可行的路徑,解鈴的鑰匙仍然掌握在系鈴人手中。

04 治理的“命門”

并非是想挑起用戶和平臺間的對立,在“算法有毒”的現(xiàn)實語境下,需要“自律”的恰恰是手握算法行使“權力”的互聯(lián)網(wǎng)平臺。

英國學者杰米·薩斯坎德在《算法的力量》一書中提到了這樣一幕:互聯(lián)網(wǎng)公司內(nèi)部幾乎沒有工程師會思考其工作導致的系統(tǒng)性后果,他們中的大部分只需要解決某些分散的技術問題就可以交差了。

而這樣的情況絕非是少數(shù),每當輿論開始聲討算法的原罪時,涉及其中的互聯(lián)網(wǎng)公司都會拋出“技術無罪”的擋箭牌。原因離不開算法運作的“黑箱”機制,即工程師負責提供數(shù)據(jù)、模型和架構,算法就會給出答案,對中間的運作過程和原理可能并不清楚,甚至工程師自己都覺得是被誤解的一方。

然而早在幾年前的時候,阿里云的程序員就曾在媒體采訪中驕傲地宣稱:“我們現(xiàn)在已經(jīng)能夠做到全中國幾億人口的淘寶界面都是不一樣的,而且?guī)缀踝龅搅嗣爰壐??!蓖瑯哟嬖谒惴ǖ牟豢山忉屝?,互?lián)網(wǎng)大廠們樂見算法產(chǎn)生的正向結果,卻不愿對算法的過程和結果負起相應責任。

2020年上線的紀錄片《監(jiān)視資本主義:智能陷阱》,用一句話巧妙地闡述了其中的癥結:“如果你沒有花錢買產(chǎn)品,那么你就是待價而沽的商品?!毕M者無須為算法提供的服務直接付費,可隱形的價碼早已被標注。

現(xiàn)實中的案例證明,互聯(lián)網(wǎng)企業(yè)并非沒有矯正的空間。早在2019年的Google I/O上,谷歌就公布了一項名為概念激活向量測試(TCAV)的技術,對算法偏見、算法歧視等問題進行技術上的監(jiān)督。

歸根結底還是商業(yè)利益和用戶權益的平衡,“不作為”偏偏是大多數(shù)企業(yè)的首要選擇。不只是關閉“個性化推薦”入口上的遮遮掩掩,在用戶增長進入瓶頸時,不少平臺刻意利用算法“殺時間”,抖音、快手、B站乃至知乎都有人為制造“時間黑洞”的嫌疑,算法在某種程度上成了“算計”的工具。

可把眼光稍微放長遠一些,所有的商業(yè)根基都離不開用戶信任。由于企業(yè)的趨利、監(jiān)管的滯后、個體的默許,已然攪起了信息繭房、大數(shù)據(jù)殺熟等輿論漩渦,何嘗不是用戶試圖對抗算法的一種外在表現(xiàn)?技術固然有著兩面性,身處其中的平臺方卻有能力進行取舍,適當限制算法應用的邊界,調(diào)整想要的“目標函數(shù)”。

能否喚醒互聯(lián)網(wǎng)平臺的“良知”,才是算法治理的“命門”所在。還是以針對算法推薦的整改為例為例,基于算法對用戶行為的“鎖定效應”,讓用戶在算法推薦有無間進行二選一是一種策略;對算法進行場景化、精細化的治理,站在用戶的立場上給出更好的解決方案也是一種策略。

但愿一些互聯(lián)網(wǎng)平臺能夠站在歷史的正確一邊。

注:林陌為化名。

本文為轉載內(nèi)容,授權事宜請聯(lián)系原著作權人。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

算法的“毒泡泡”,當真可以戒掉嗎?

想要逃離乃至對抗算法,似乎并不是一件容易的事情。

文|Alter聊科技 張賀飛

編輯|沈潔

關掉個性化推薦功能后,林陌陷入了深深的焦慮。

“以前打開今日頭條,首頁里總會有很多自己感興趣的內(nèi)容,雖然覺得自己的可能被算法裹挾了,但真的節(jié)省了很多不必要的信息篩選?,F(xiàn)在關掉了個性化推薦,滿屏都是和自己無關的垃圾信息?!?/p>

《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》正式實施后,不少APP上線了算法關閉按鈕,允許用戶在后臺關掉“個性化推薦”。向來對算法推薦有微辭的林陌,第一時間就關掉了多個APP的推薦功能,但結果并不是預想中的那般。

“本來可以在工作間隙刷刷喜歡的短視頻或圖文內(nèi)容,可在關掉算法推薦后,內(nèi)容的匹配度大不如前,在屏幕上下滑好幾頁都找不到喜歡的內(nèi)容,碎片化時間都浪費在了找內(nèi)容上,而且廣告推薦一個沒少?!?/p>

像林陌這樣的用戶顯然不在少數(shù),長期生活在算法編織的環(huán)境中,本能上有一種被算法支配的恐懼,卻也在無形中養(yǎng)成了對算法的依賴,想要逃離乃至對抗算法,似乎并不是一件容易的事情。

01 “有毒”的算法

尼爾·波茲曼曾在《技術壟斷》一書中斷言:每一種新技術都既是包袱又是恩賜,不是非此即彼的結果,而是利弊同在的產(chǎn)物。

算法的出現(xiàn)、應用和演變,準確地佐證了波茲曼的斷言。算法本質(zhì)上是一種分析、預測的數(shù)學技術,強調(diào)的是相關性,可以用來提高信息和商品推薦的準確性,也有利于降低用戶的時間成本。然而法律監(jiān)管和用戶意識的“滯后”,再加上算法和互聯(lián)網(wǎng)商業(yè)模式的深度捆綁,逐漸滋生了許多亂象。

最早被討論的是“信息繭房”。這是哈佛大學法學院教授凱斯·桑斯坦在《網(wǎng)絡共和國》中提出的概念,公眾在信息傳播過程中會過度偏向自身感興趣的內(nèi)容,減少和其他信息的接觸,不知不覺間為自己制造了一個“信息繭房”,漸漸沉浸在一個越來越窄的世界,甚至產(chǎn)生一些極端的認知。

桑斯坦提出“信息繭房”概念的時間是2006年,可由于概念本身過于學術化,加上“算法推薦”在那個時候還是一個相對陌生的詞匯,并未被太多人所關注。直到移動互聯(lián)網(wǎng)浪潮的到來,一些創(chuàng)業(yè)者開始用算法去討好用戶,不斷猜測并推薦用戶偏好的內(nèi)容,以增強所謂的用戶粘性和用戶時長,“信息繭房”逐漸成了一種常態(tài)化的社會現(xiàn)象。

但算法的弊端被大多數(shù)人聲討的導火索,卻是和用戶利益直接相關的大數(shù)據(jù)殺熟。電商平臺、出行APP、外賣平臺等都被曝出大數(shù)據(jù)殺熟的案例,系統(tǒng)會根據(jù)用戶標簽推送不同的折扣,同一件商品給新用戶比較低的價格,而老用戶的價格要明顯高一些。北京消費者協(xié)會曾對“殺熟”問題進行調(diào)查問卷,過半用戶表示經(jīng)歷過“大數(shù)據(jù)殺熟”。

不過算法在輿論場上的公開抨擊,還要等到“數(shù)據(jù)隱私”的發(fā)酵。剛剛在社交網(wǎng)站上聊到某件商品,轉身就出現(xiàn)在了電商平臺的推薦頁面,甚至有網(wǎng)友吐槽自己的電話內(nèi)容可能被電商APP監(jiān)聽。個中的因果關系其實并不難解釋,算法的訓練離不開數(shù)據(jù)原料,用戶的瀏覽記錄、停留時長、興趣愛好等都被平臺偷偷記錄,而為了算法推薦的準確性,一些平臺不無越界侵犯用戶隱私的嫌疑。

借用一個有些陰謀論色彩的說法:就像是一個溫水煮青蛙的過程,先用算法推薦構建了一張張封閉的“信息繭房”,生活在“繭房”的用戶成為一茬茬被收割的對象,至于收割的方式,或是大數(shù)據(jù)殺熟,或是監(jiān)聽用戶隱私……至此,算法不再是“沒有價值觀”的技術名詞,開始和“毒”字掛了鉤。

02 “靴子”終落地

當算法被越來越多人詬病,一步步走向污名化的時候,對平臺的算法推薦進行治理的呼吁愈演愈烈,監(jiān)管的靴子陸續(xù)落地。

前面提到的《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》就是相應的產(chǎn)物。由網(wǎng)信辦在2021年8月份提出,并于2022年3月1日正式施行。“管理規(guī)定”的矛頭直指算法推薦功能,提出算法推薦服務提供者應當向用戶提供不針對個人特征的選項,或者向用戶提供便捷的關閉算法推薦服務的選項。

截止到目前,不少互聯(lián)網(wǎng)大廠已經(jīng)響應號召,微信、抖音、淘寶、美團、百度、微博、小紅書等熱門APP,均上線了個性化內(nèi)容推薦和個性化廣告推薦的關閉按鈕,只是在執(zhí)行力度上仍有所保留。

比如網(wǎng)信辦規(guī)定平臺要在顯著位置上線算法關閉鍵,現(xiàn)實中很多APP將這一功能隱藏的非常深。以今日頭條為例,想要關掉“個性化推薦”功能,需要打開APP、點擊“我的”、找到“隱私設置”、打開“個性化推薦設置”、關掉“個性化推薦”等至少5個步驟,關閉入口隱藏的比較深且操作繁瑣。

即便監(jiān)管的靴子已經(jīng)落地,而且留下了近7個月的整改時間,不少APP應付監(jiān)管的態(tài)度卻非常微妙,乃至存在對抗監(jiān)管的可能。畢竟算法推薦早已是許多平臺的流量密碼,一旦用戶關掉“個性化推薦”,可能讓用戶的打開頻率變低、停留時長變短,進而影響平臺賴以生存的廣告收入。

于是一些平臺并未對非算法推薦進行產(chǎn)品優(yōu)化,采取了“一刀切”的產(chǎn)品邏輯,用戶在關掉“個性化推薦”后,幾乎找不到符合興趣的內(nèi)容,本質(zhì)上在逼迫用戶二選一:要么犧牲掉用戶體驗,要么乖乖回歸算法推薦。

這還只是觸及了算法推薦的蛋糕,倘若進一步涉及到商品推薦、隱私保護等環(huán)節(jié),不排除一些平臺會給出更加狡詐的應對策略?;蛟S這才是“技術霸凌”的題中之意,不只是平臺利用技術進行了多少越界行為,還涉及到對用戶行為的綁架,想要逃離“算法陷阱”,必須要付出足夠大的代價。

讓人沮喪的是,算法規(guī)則在時間的推移下越來越復雜,對大部分用戶而言就是一個看不透的“黑箱”,無法理解算法的運作原理,也不知曉有哪些濫用的行為??赡苤皇窃谀硞€短視頻上多停留了幾秒,只是打開某個商品鏈接忘記關閉,就會被平臺記錄、利用算法分析,無形中編織了一張?zhí)硬坏舻木W(wǎng)。

至少在監(jiān)管對“算法推薦”動刀時,已經(jīng)驗證了一個不太樂觀的事實:大多數(shù)用戶很難走出算法的“圍城”,看似被賦予了拒絕的權利,想要行使權力的難度和代價,卻會讓大多數(shù)人放棄改變的想法。

03 戒不掉的“癮”

正如德國存在主義哲學家雅斯貝爾斯的觀點:“技術僅是一種手段,它本身并無善惡,一切取決于人從中造出什么,它為什么目的而服務于人?!?/p>

這種“技術無罪”的理念,在國內(nèi)衍生出了“算法沒有價值觀”的結論,同時也成了一些人為算法推薦“洗地”的理論根源。譬如“信息繭房”的話題引發(fā)公開討論時,某知名自媒體在文章中赫然寫道:“如果說我們真的需要一條擺脫所謂信息繭房的技術之路,算法顯然是修路者之一,它肯定不是路障?!?/p>

其中的底層邏輯往往建立在普羅大眾的“自律”上,如果你不想被“信息繭房”控制,只要主動跳出自己的“舒適圈”就可以,主動去接觸那些不愿接觸的信息,而非把責任全部歸咎于外部的客觀原因。

此類觀點看似難以辯駁,卻選擇性忽略了另一個既定現(xiàn)實:每每提到移動互聯(lián)網(wǎng)時代的創(chuàng)始人,“洞悉人性”可以說是時常出現(xiàn)的一個評價,張一鳴、黃崢等都曾被媒體這般評論。折射到算法誘發(fā)的一系列問題上,那些“始作俑者”所擅長的,正是費盡心思地讓用戶上癮,然后毀掉你的自律。

普林斯頓大學心理學博士亞當·奧爾特,在《欲罷不能》中特意解釋了互聯(lián)網(wǎng)的種種“上癮”行為,并將其細分為6個要素,即預設可望而不可即的誘人目標、提供不可抗拒的積極反饋、毫不費力的讓用戶感到進步、給予逐漸升級的挑戰(zhàn)、營造未完成的緊張感、增加令人癡迷的社會互動。

如果說奧爾特是從產(chǎn)品經(jīng)理的角度,透析了游戲、短視頻等產(chǎn)品引導用戶上癮的原理,著名戰(zhàn)略問題專家布熱津斯基則從上帝視角提出了著名的奶頭樂理論:世界上80%的人口將因生產(chǎn)力提升被邊緣化,為了安慰社會中“被遺棄”的人,方法之一就是讓企業(yè)大批量制造“奶頭”——讓令人沉迷的消遣娛樂和充滿感官刺激的產(chǎn)品填滿人們的生活,進而沉浸在“快樂”中不知不覺地喪失思考能力。

直接將算法視為奶頭樂理論的“幫兇”,無疑有一些武斷,可毋庸置疑的事實在于,算法強化了用戶的即時滿足心理,放大了多巴胺的刺激和誘惑,讓大多數(shù)用戶漸漸適應了“娛樂至死”的狀態(tài)。

令人遺憾的地方正在于此,極大多數(shù)用戶不會主動克制自己,習慣性地接受算法的推薦內(nèi)容,讓算法收集自己的數(shù)據(jù),無意識地告訴算法哪些是自己喜歡的內(nèi)容,最終被框定在一個看不見的“舒適區(qū)”中。即使監(jiān)管層面已經(jīng)做出了反應,為用戶打開了逃離算法的大門,可想讓用戶靠自律、靠隱私意識的覺醒拒絕成癮,并不是一條可行的路徑,解鈴的鑰匙仍然掌握在系鈴人手中。

04 治理的“命門”

并非是想挑起用戶和平臺間的對立,在“算法有毒”的現(xiàn)實語境下,需要“自律”的恰恰是手握算法行使“權力”的互聯(lián)網(wǎng)平臺。

英國學者杰米·薩斯坎德在《算法的力量》一書中提到了這樣一幕:互聯(lián)網(wǎng)公司內(nèi)部幾乎沒有工程師會思考其工作導致的系統(tǒng)性后果,他們中的大部分只需要解決某些分散的技術問題就可以交差了。

而這樣的情況絕非是少數(shù),每當輿論開始聲討算法的原罪時,涉及其中的互聯(lián)網(wǎng)公司都會拋出“技術無罪”的擋箭牌。原因離不開算法運作的“黑箱”機制,即工程師負責提供數(shù)據(jù)、模型和架構,算法就會給出答案,對中間的運作過程和原理可能并不清楚,甚至工程師自己都覺得是被誤解的一方。

然而早在幾年前的時候,阿里云的程序員就曾在媒體采訪中驕傲地宣稱:“我們現(xiàn)在已經(jīng)能夠做到全中國幾億人口的淘寶界面都是不一樣的,而且?guī)缀踝龅搅嗣爰壐?。”同樣存在算法的不可解釋性,互?lián)網(wǎng)大廠們樂見算法產(chǎn)生的正向結果,卻不愿對算法的過程和結果負起相應責任。

2020年上線的紀錄片《監(jiān)視資本主義:智能陷阱》,用一句話巧妙地闡述了其中的癥結:“如果你沒有花錢買產(chǎn)品,那么你就是待價而沽的商品?!毕M者無須為算法提供的服務直接付費,可隱形的價碼早已被標注。

現(xiàn)實中的案例證明,互聯(lián)網(wǎng)企業(yè)并非沒有矯正的空間。早在2019年的Google I/O上,谷歌就公布了一項名為概念激活向量測試(TCAV)的技術,對算法偏見、算法歧視等問題進行技術上的監(jiān)督。

歸根結底還是商業(yè)利益和用戶權益的平衡,“不作為”偏偏是大多數(shù)企業(yè)的首要選擇。不只是關閉“個性化推薦”入口上的遮遮掩掩,在用戶增長進入瓶頸時,不少平臺刻意利用算法“殺時間”,抖音、快手、B站乃至知乎都有人為制造“時間黑洞”的嫌疑,算法在某種程度上成了“算計”的工具。

可把眼光稍微放長遠一些,所有的商業(yè)根基都離不開用戶信任。由于企業(yè)的趨利、監(jiān)管的滯后、個體的默許,已然攪起了信息繭房、大數(shù)據(jù)殺熟等輿論漩渦,何嘗不是用戶試圖對抗算法的一種外在表現(xiàn)?技術固然有著兩面性,身處其中的平臺方卻有能力進行取舍,適當限制算法應用的邊界,調(diào)整想要的“目標函數(shù)”。

能否喚醒互聯(lián)網(wǎng)平臺的“良知”,才是算法治理的“命門”所在。還是以針對算法推薦的整改為例為例,基于算法對用戶行為的“鎖定效應”,讓用戶在算法推薦有無間進行二選一是一種策略;對算法進行場景化、精細化的治理,站在用戶的立場上給出更好的解決方案也是一種策略。

但愿一些互聯(lián)網(wǎng)平臺能夠站在歷史的正確一邊。

注:林陌為化名。

本文為轉載內(nèi)容,授權事宜請聯(lián)系原著作權人。