正在閱讀:

假新聞為何總能得到關(guān)注?從“伊朗廢除道德警察”談起

掃一掃下載界面新聞APP

假新聞為何總能得到關(guān)注?從“伊朗廢除道德警察”談起

假新聞泛濫原因要復(fù)雜得多,其中既有人性的弱點,也有社交網(wǎng)絡(luò)特性導(dǎo)致的真相扭曲,此外,虛假消息在傳播伊始瞄準的其實也不是普通大眾。

來源:視覺中國

記者 | 林子人

編輯 | 黃月

22歲庫爾德女性阿米尼因頭巾佩戴不當(dāng)被道德警察逮捕死亡,這一事件引發(fā)的伊朗大規(guī)??棺h行動從9月中旬持續(xù)發(fā)酵至今,吸引了全球關(guān)注。尤為值得注意的是,一些相關(guān)進展在迅速占據(jù)頭條、獲得萬千轉(zhuǎn)發(fā)和超高討論熱度后又遭遇“反轉(zhuǎn)”,被指為假新聞。

12月4日,一則“伊朗決定取消道德警察”的報道被廣泛關(guān)注,#伊朗廢除道德警察#登上微博熱搜。中文媒體援引的多是法新社(AFP)報道,“據(jù)伊朗當(dāng)?shù)孛襟w報道,在兩個多月的抗議活動后,伊朗取締了道德警察部隊?!比欢?,“辟謠”消息很快出現(xiàn),觀察者注意到伊朗政府并未就此發(fā)布任何官方聲明,也沒有任何政府官員證實道德警察已被取締。4日,正在塞爾維亞訪問的伊朗外長阿卜杜拉希揚被問及道德警察是否取消的問題時僅僅表示,“可以確定的是,在伊朗,一切都在民主和自由的框架內(nèi)順利推進?!?/p>

12月3日,伊朗德黑蘭,民眾走在德黑蘭大巴扎(市場)附近的街道上。圖源:視覺中國

可能涉嫌誤讀伊朗抗議行動的新聞,還包括11月21日伊朗足球運動員在世界杯小組賽開賽前拒唱國歌。國歌響起時伊朗球員肩并肩站立、無人唱國歌的場景,被中國網(wǎng)友理解為男性球員公開表達對伊朗女性權(quán)利的支持,獲得了廣泛好評。據(jù)BBC報道,四天后,在伊朗對陣威爾士的小組賽中,球員們唱起了伊朗國歌,也有伊朗人指出,伊朗足球隊的行為只是“政府指使”下的“一場作秀”。

面對種種前后矛盾的消息,我們是否還有可能把握所謂“真相”?當(dāng)煙霧彈一樣的新聞資訊被制造出來,我們要如何理解和甄別?錯誤信息的武器化和虛假新聞的傳播已經(jīng)是一個不容忽視的全球性問題。假新聞為何總是吸引我們的注意力,且通常難以遏制其影響?社交網(wǎng)絡(luò)時代的網(wǎng)民缺乏媒介素養(yǎng)、輕信未經(jīng)證實的消息是一種常見的指責(zé),但假新聞泛濫原因要復(fù)雜得多,其中既有人性的弱點,也有社交網(wǎng)絡(luò)特性導(dǎo)致的真相扭曲。此外,我們也會發(fā)現(xiàn),虛假消息在傳播伊始瞄準的其實也不是普通大眾。

假新聞始終比真新聞傳播得更遠、更快、更深入

在關(guān)于假新聞的研究中,數(shù)據(jù)科學(xué)家、麻省理工學(xué)院社會分析實驗室負責(zé)人錫南·阿拉爾(Sinan Aral)做出了一個最令人害怕和沮喪的判斷。阿拉爾在《炒作機器》一書中是這樣寫的:

“在所有類別的信息中,虛假新聞始終要比真實新聞傳播得更遠、更快、更深入,而且其覆蓋面也更加廣泛。在某些案例中,這兩者之間甚至有好幾個數(shù)量級的差異……我們在社交媒體平臺的通道中發(fā)現(xiàn)了一臺可以扭曲現(xiàn)實的機器,通過這臺機器,謊言像閃電一樣傳播,真相卻像是在緩慢滴落的糖漿?!?/p>

麻省理工學(xué)院社會分析實驗室分析了2006-2017年所有在推特上傳播過的、經(jīng)過事實核查的真實或虛假新聞的傳播方式,這項研究于2018年3月作為封面報道發(fā)表在《科學(xué)》雜志上。阿拉爾和同事們發(fā)現(xiàn),真實消息很少能夠擴散到1000人以上的群體中,但前1%的虛假新聞轉(zhuǎn)發(fā)鏈可以輕松擴散到10萬人的群體中——這意味著,把真實信息傳播給1500人所需的時間大約是把虛假信息傳播給同樣數(shù)量的人所需時間的6倍,把真實信息的原始推文傳播給10個轉(zhuǎn)發(fā)人所需的時間是把虛假新聞傳播給同等數(shù)量轉(zhuǎn)發(fā)人所需時間的20倍。伴隨著每一次轉(zhuǎn)發(fā),原始推文的傳播都會更遠,產(chǎn)生新的轉(zhuǎn)發(fā)鏈條,在轉(zhuǎn)發(fā)鏈的每個“深度”層次上,虛假信息被轉(zhuǎn)發(fā)的次數(shù)都比真實信息多。

上述研究還發(fā)現(xiàn),虛假政治新聞是網(wǎng)絡(luò)上熱度最高、傳播最廣的虛假新聞類型。事實上,涉及政治和都市逸聞的新聞的傳播速度向來是所有新聞中最快、最受讀者關(guān)注的。

人們?yōu)槭裁磿惶摷傩侣勊⒅鲃臃窒礤e誤信息?阿拉爾和他的同事們用“新奇性假設(shè)”來回答這一問題。他們認為,虛假新聞通常比真實新聞更新奇,更能吸引人們的關(guān)注和轉(zhuǎn)發(fā)。這是因為,新奇的東西會讓人感到驚訝,并引起情緒上的共鳴,還會更新或改變我們對世界的理解。人們在分享新奇東西時會在無形中傳達出他們的社會地位,因為分享者會被視為一個“知情人”或有“內(nèi)幕消息”的人。在論證“新奇性假設(shè)”時,阿拉爾通過比較用戶在回復(fù)謠言時表達出來的情緒,來評估用戶對真實新聞和虛假新聞的感受?!拔覀儼l(fā)現(xiàn),虛假新聞會激起更多的驚嘆和厭惡,而真相會激起更多的悲傷、期待、快樂和信任,這實際上已經(jīng)證實了我們的‘新奇性假設(shè)’。但這些情緒也揭示出,除了新奇性之外,還有哪些因素會刺激人們?nèi)シ窒砟切┨摷傩侣??!?/p>

《炒作機器:社交時代的群體盲區(qū)》
[美]錫南·阿拉爾 著 周海云 譯
中信出版集團 2022-5

在《傳染》一書,流行病學(xué)學(xué)者亞當(dāng)·庫哈爾斯基(Adam Kucharski)援引的另一項研究得出了相似的結(jié)論,亞當(dāng)致力于通過數(shù)學(xué)模型演繹傳染病和社會行為的傳播。2011年,賓夕法尼亞大學(xué)的喬納·伯杰(Jonah Berger)和凱瑟琳·米爾克曼(Katherine Milkman)研究了人們通過電子郵件分享《紐約時報》文章的情況,發(fā)現(xiàn)引發(fā)強烈情緒——無論是積極情緒(如贊嘆),還是消極情緒(如憤怒)——的文章更有可能被分享。兩位研究者指出,令人驚奇或具有實用價值是判斷一篇文章是否受歡迎的重要標準。

從這個角度來看,“伊朗廢除道德警察”和“伊朗足球運動員開賽前拒唱國歌”的消息之所以被廣泛轉(zhuǎn)發(fā)和討論,是因為它們具有某種新奇性,傳達了令人驚訝的信息,即伊朗的權(quán)利上位者能夠回應(yīng)公眾的呼聲并做出變革,而伊朗的男性能夠共情女性同胞的境遇,在明知會面臨懲罰的情況下依然公開支持抗議行動。這種新奇性既令人驚訝——我們知道它極少能在現(xiàn)實生活中發(fā)生——但也恰恰因為如此,我們才更愿意相信這些消息是真的,以回應(yīng)自身的道德期待。

但新奇性還不足以解釋虛假新聞的超強傳播力。庫哈爾斯基還提醒我們注意“復(fù)雜傳染”的現(xiàn)象,即觀念的傳播并非一蹴而就,我們要在多次接觸一個想法后才會采信它。有證據(jù)表明,我們雖然不需要太多激勵就會在網(wǎng)上分享模因(比如表情包),但除非看到不少人都在分享,否則我們不會輕易分享政治內(nèi)容。比如2013年初,一些臉書用戶將自己的頭像改成了“=”符號來支持婚姻平權(quán),平均而言,用戶要等到8個朋友更改頭像后才會效仿。

可以確定的是,社交網(wǎng)絡(luò)的結(jié)構(gòu)與運作機制為“復(fù)雜傳染”創(chuàng)造了條件。臉書的數(shù)據(jù)科學(xué)團隊在2014-2015年對其美國用戶的政治觀點進行了研究,他們發(fā)現(xiàn),人們往往會接觸到與自己所持觀點相似的觀點,臉書的算法(決定用戶“動態(tài)”中顯示的內(nèi)容)會進一步過濾掉5%-8%的政治異見。2016年牛津大學(xué)、斯坦福大學(xué)和微軟研究院的一項聯(lián)合研究發(fā)現(xiàn),美國人在社交媒體和搜索引擎上瀏覽的文章,通常比他們在自己最喜歡的新聞網(wǎng)站上看到的文章傾向性更強。另一項杜克大學(xué)的研究則發(fā)現(xiàn),關(guān)注與自己立場相反的推特賬號無助于打破“信息繭房”,參與實驗的美國志愿者反而強化了自己的政治立場,變得更保守或更自由。

《傳染:為什么疾病、金融危機和社會行為會流行?》
[英]亞當(dāng)·庫哈爾斯基 著 谷曉陽 李曈 王興偉 王雪萍 譯
新思 | 中信出版集團 2020-10

“分享”和“吸引用戶的時間和注意力”是社交媒體的設(shè)計核心,為此,一些旨在促使用戶不斷瀏覽和分享的功能被開發(fā)出來。2010年,臉書推出了“無限滾動”功能,用戶不必費心翻頁,如今這一功能已是社交媒體的常態(tài)。2015年,YouTube開發(fā)了當(dāng)前視頻結(jié)束后自動播放下一個視頻的功能,預(yù)示了接下來短視頻平臺用手劃一下就能從一個短視頻跳轉(zhuǎn)到另一個的設(shè)定。促進不斷瀏覽和分享的機制和算法一道推波助瀾,其結(jié)果是用戶重復(fù)接收了更多與自己一致的觀點。2017年,新聞研究者喬納森·奧爾布賴特(Jonathan Albright)調(diào)查了100多個極端主義宣傳網(wǎng)站后發(fā)現(xiàn),這些網(wǎng)站會收集瀏覽者的個人身份和瀏覽行為的信息(比如鼠標的移動),因而能夠跟蹤易受影響的用戶,向他們推送更多極端內(nèi)容。

鑒于上述種種原因,假新聞在很多情況下跑得比真新聞更快更遠。庫哈爾斯基認為,“線上社交網(wǎng)絡(luò)的結(jié)構(gòu)不利于用戶形成發(fā)人深思的、較為復(fù)雜多元的觀點。相比之下,那些簡單、易消化的內(nèi)容更容易在網(wǎng)上擴散?!?/p>

網(wǎng)絡(luò)滋事者和媒體操縱者是真正深刻理解網(wǎng)絡(luò)“傳染”本質(zhì)的人

2016年英國公投脫離歐盟,特朗普當(dāng)選美國總統(tǒng),一時間“后真相”成為討論熱點,并被《牛津大詞典》選為年度詞匯;社交網(wǎng)絡(luò)研究者試圖查明,假新聞(特別是由“境外勢力”投放的假新聞)在多大程度上扭曲了民意、操縱了民主投票結(jié)果。

阿拉爾認為,2016年美國大選期間,俄羅斯制作的虛假新聞在臉書上至少被傳播給了1.26億人,收獲了至少7600萬個點贊、評論和其他反饋。在Instagram上,這些虛假新聞至少影響了2000萬人,得到了至少1.87億個點贊、評論和其他反饋。俄羅斯還通過推特賬號發(fā)送了至少1000萬條推文,這些賬號擁有600萬粉絲。

但庫哈爾斯基認為,人們不應(yīng)過于高估虛假新聞網(wǎng)站和外國間諜操縱輿論的能力。他援引一項研究指出,臉書用戶可能接觸到了俄方散布的消息,但與此同時,美國用戶在該平臺上看到的消息總量超過11萬億條。平均而言,人們每接觸一條俄方的消息,就會同時接觸到9萬條其他消息。在推特上,只有不到0.75%的選舉相關(guān)推文來自與俄羅斯有關(guān)聯(lián)的賬戶,選民接觸的絕大部分信息都不是來自虛假新聞網(wǎng)站或極右翼組織,而是來自知名人士或機構(gòu)。

但這并不意味著虛假新聞不重要,庫哈爾斯基指出,一個更值得擔(dān)憂和警惕的虛假新聞傳播途徑是被稱為“蜜罐機器人”(honey pot bot)的社交媒體機器人,它們旨在吸引特定用戶的注意并引誘他們做出回應(yīng)。多位研究者指出,虛假消息或新聞的發(fā)布者最初瞄準的目標未必是普通大眾,而是那些愛用社交媒體的記者或政客,這些目標具有強大的話語權(quán),能顯著影響公共輿論。比如2017年,記者們經(jīng)常引用一個名為“wokeluisa”的推特用戶發(fā)布的消息,這個用戶乍看之下是一名紐約的年輕政治學(xué)研究生,實際上卻是由一群俄羅斯網(wǎng)絡(luò)滋事者運營的“蜜罐機器人”,針對媒體機構(gòu)“定向發(fā)帖”,以期建立公信力,讓信息擴散。

庫哈爾斯基指出,與真正的傳染病一樣,網(wǎng)絡(luò)消息的擴散也有“同源性傳播”和“延伸性傳播”兩種模式,前者指所有人從相同來源感染,后者指多輪人際傳播。從單一來源傳播給很多人也被稱為“廣播事件”,研究發(fā)現(xiàn),網(wǎng)絡(luò)熱帖背后通常都有一個廣播事件。這也是“蜜罐機器人”的運作邏輯:通過KOL的“背書”(那可能是機構(gòu)媒體、網(wǎng)紅或政客),一條消息可以迅速傳播開去?!叭绻麤]有廣播事件的放大效應(yīng),這些極端思想很難傳開。如果一個觀點變得流行,通常都是知名人士和媒體有意無意地助長了它的傳播。”

雪上加霜的是,社交網(wǎng)絡(luò)時代的新聞業(yè)性質(zhì)已經(jīng)發(fā)生了變化,媒體從業(yè)者也越來越難抵御虛假消息的操縱。媒體對分享和點擊量的渴求越來越強烈,由于具有“傳染性”的觀點往往是備受關(guān)注的觀點,即使其內(nèi)容不實,媒體也會為其大開方便之門。在庫哈爾斯基看來,網(wǎng)絡(luò)滋事者和媒體操縱者是真正深刻理解網(wǎng)絡(luò)“傳染”本質(zhì)的那群人,“從技術(shù)角度來看,大多數(shù)媒體操縱者并不是在利用網(wǎng)絡(luò)傳播系統(tǒng)的技術(shù)漏洞,而是在奉行它的激勵機制。”

“虛假新聞”(fake news)其實是一個非常概括性的詞語,它包括了幾種不同的情況:誘導(dǎo)點擊的信息、陰謀論、錯誤信息(misinformation)和虛假信息(disinformation)。庫哈爾斯基認為,虛假信息是其中最危險的一種形式,它不僅誘導(dǎo)人們?nèi)ハ嘈佩e誤的事實,而且會讓人們懷疑真相本身,“通過混淆視聽,它們使人無法確定真實情況?!?/p>

阿拉爾指出,當(dāng)虛假新聞并非完全捏造的時候,它通常會通過調(diào)整或扭曲現(xiàn)實與真實信息混雜在一起,然后突出其中最聳人聽聞和最情緒化的元素。如此一來,它們就會在社交媒體上迅速擴散,其傳播速度遠遠快于驗證或反駁的速度,一旦傳播開來,很難完全清除其影響。

以歐美國家的反疫苗運動為例。麻疹-腮腺炎-風(fēng)疹疫苗會導(dǎo)致自閉癥的謠言始于1998年《柳葉刀》發(fā)表的一篇欺詐性論文,雖然這篇論文遭到了質(zhì)疑并被撤稿,作者安德魯·韋克菲爾德(Andrew Wakefield)也在英國被吊銷了醫(yī)師執(zhí)照,但英國媒體注意到了韋克菲爾德的說法并進一步夸大其詞。這一虛假信息的傳播和影響力是持久性的,給公共衛(wèi)生造成了極大挑戰(zhàn),因為人們拒絕接種疫苗,麻疹在美國死灰復(fù)燃。2019年年初,臉書上所有關(guān)于疫苗的搜索結(jié)果都已經(jīng)被反疫苗的宣傳主導(dǎo);同年的一項調(diào)查顯示,和亞非國家相比,歐洲國家的人對疫苗的信任度更低。

值得慶幸的是,有證據(jù)顯示我們可以減緩虛假信息的蔓延,即使無法完全根除它們。臉書的研究人員發(fā)現(xiàn),如果用戶迅速向分享虛假消息的朋友指出問題,后者有20%的概率會刪除分享內(nèi)容。社交媒體運營方也可以采取措施減慢傳播的速度,比如在印度發(fā)生了一系列由謠言引發(fā)的攻擊事件后,WhatsApp設(shè)置印度用戶只能將消息轉(zhuǎn)發(fā)給五個人。

無論如何,我們需要認識到,是人類自己讓虛假新聞的傳播比真相來得更快更廣。它或許是一個將一直伴隨信息交流存在的現(xiàn)象,但在深入理解其本質(zhì)后,我們有可能提升自己分辨真?zhèn)蔚哪芰?,影響社交網(wǎng)絡(luò)的運作機制,進而減小虛假新聞的危害。

參考資料:

【美】錫南·阿拉爾.《炒作機器:社交時代的群體盲區(qū)》.中信出版集團.2022.

【英】亞當(dāng)·庫哈爾斯基.《傳染:為什么疾病、金融危機和社會行為會流行?》.中信出版集團.2020.

《伊朗道德警察存廢未明,抗議者發(fā)起三天罷工》,界面新聞

http://m.hbyanyusl.cn/article/8521114.html

《廢除道德警察,是來自伊朗政府的假新聞丨抗爭仍未終止》,公眾號“蕩秋千的婦女”

https://mp.weixin.qq.com/s/2aNWF-w29ZU-GJfVhKWk6Q

 

未經(jīng)正式授權(quán)嚴禁轉(zhuǎn)載本文,侵權(quán)必究。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

假新聞為何總能得到關(guān)注?從“伊朗廢除道德警察”談起

假新聞泛濫原因要復(fù)雜得多,其中既有人性的弱點,也有社交網(wǎng)絡(luò)特性導(dǎo)致的真相扭曲,此外,虛假消息在傳播伊始瞄準的其實也不是普通大眾。

來源:視覺中國

記者 | 林子人

編輯 | 黃月

22歲庫爾德女性阿米尼因頭巾佩戴不當(dāng)被道德警察逮捕死亡,這一事件引發(fā)的伊朗大規(guī)??棺h行動從9月中旬持續(xù)發(fā)酵至今,吸引了全球關(guān)注。尤為值得注意的是,一些相關(guān)進展在迅速占據(jù)頭條、獲得萬千轉(zhuǎn)發(fā)和超高討論熱度后又遭遇“反轉(zhuǎn)”,被指為假新聞。

12月4日,一則“伊朗決定取消道德警察”的報道被廣泛關(guān)注,#伊朗廢除道德警察#登上微博熱搜。中文媒體援引的多是法新社(AFP)報道,“據(jù)伊朗當(dāng)?shù)孛襟w報道,在兩個多月的抗議活動后,伊朗取締了道德警察部隊?!比欢?,“辟謠”消息很快出現(xiàn),觀察者注意到伊朗政府并未就此發(fā)布任何官方聲明,也沒有任何政府官員證實道德警察已被取締。4日,正在塞爾維亞訪問的伊朗外長阿卜杜拉希揚被問及道德警察是否取消的問題時僅僅表示,“可以確定的是,在伊朗,一切都在民主和自由的框架內(nèi)順利推進。”

12月3日,伊朗德黑蘭,民眾走在德黑蘭大巴扎(市場)附近的街道上。圖源:視覺中國

可能涉嫌誤讀伊朗抗議行動的新聞,還包括11月21日伊朗足球運動員在世界杯小組賽開賽前拒唱國歌。國歌響起時伊朗球員肩并肩站立、無人唱國歌的場景,被中國網(wǎng)友理解為男性球員公開表達對伊朗女性權(quán)利的支持,獲得了廣泛好評。據(jù)BBC報道,四天后,在伊朗對陣威爾士的小組賽中,球員們唱起了伊朗國歌,也有伊朗人指出,伊朗足球隊的行為只是“政府指使”下的“一場作秀”。

面對種種前后矛盾的消息,我們是否還有可能把握所謂“真相”?當(dāng)煙霧彈一樣的新聞資訊被制造出來,我們要如何理解和甄別?錯誤信息的武器化和虛假新聞的傳播已經(jīng)是一個不容忽視的全球性問題。假新聞為何總是吸引我們的注意力,且通常難以遏制其影響?社交網(wǎng)絡(luò)時代的網(wǎng)民缺乏媒介素養(yǎng)、輕信未經(jīng)證實的消息是一種常見的指責(zé),但假新聞泛濫原因要復(fù)雜得多,其中既有人性的弱點,也有社交網(wǎng)絡(luò)特性導(dǎo)致的真相扭曲。此外,我們也會發(fā)現(xiàn),虛假消息在傳播伊始瞄準的其實也不是普通大眾。

假新聞始終比真新聞傳播得更遠、更快、更深入

在關(guān)于假新聞的研究中,數(shù)據(jù)科學(xué)家、麻省理工學(xué)院社會分析實驗室負責(zé)人錫南·阿拉爾(Sinan Aral)做出了一個最令人害怕和沮喪的判斷。阿拉爾在《炒作機器》一書中是這樣寫的:

“在所有類別的信息中,虛假新聞始終要比真實新聞傳播得更遠、更快、更深入,而且其覆蓋面也更加廣泛。在某些案例中,這兩者之間甚至有好幾個數(shù)量級的差異……我們在社交媒體平臺的通道中發(fā)現(xiàn)了一臺可以扭曲現(xiàn)實的機器,通過這臺機器,謊言像閃電一樣傳播,真相卻像是在緩慢滴落的糖漿?!?/p>

麻省理工學(xué)院社會分析實驗室分析了2006-2017年所有在推特上傳播過的、經(jīng)過事實核查的真實或虛假新聞的傳播方式,這項研究于2018年3月作為封面報道發(fā)表在《科學(xué)》雜志上。阿拉爾和同事們發(fā)現(xiàn),真實消息很少能夠擴散到1000人以上的群體中,但前1%的虛假新聞轉(zhuǎn)發(fā)鏈可以輕松擴散到10萬人的群體中——這意味著,把真實信息傳播給1500人所需的時間大約是把虛假信息傳播給同樣數(shù)量的人所需時間的6倍,把真實信息的原始推文傳播給10個轉(zhuǎn)發(fā)人所需的時間是把虛假新聞傳播給同等數(shù)量轉(zhuǎn)發(fā)人所需時間的20倍。伴隨著每一次轉(zhuǎn)發(fā),原始推文的傳播都會更遠,產(chǎn)生新的轉(zhuǎn)發(fā)鏈條,在轉(zhuǎn)發(fā)鏈的每個“深度”層次上,虛假信息被轉(zhuǎn)發(fā)的次數(shù)都比真實信息多。

上述研究還發(fā)現(xiàn),虛假政治新聞是網(wǎng)絡(luò)上熱度最高、傳播最廣的虛假新聞類型。事實上,涉及政治和都市逸聞的新聞的傳播速度向來是所有新聞中最快、最受讀者關(guān)注的。

人們?yōu)槭裁磿惶摷傩侣勊⒅鲃臃窒礤e誤信息?阿拉爾和他的同事們用“新奇性假設(shè)”來回答這一問題。他們認為,虛假新聞通常比真實新聞更新奇,更能吸引人們的關(guān)注和轉(zhuǎn)發(fā)。這是因為,新奇的東西會讓人感到驚訝,并引起情緒上的共鳴,還會更新或改變我們對世界的理解。人們在分享新奇東西時會在無形中傳達出他們的社會地位,因為分享者會被視為一個“知情人”或有“內(nèi)幕消息”的人。在論證“新奇性假設(shè)”時,阿拉爾通過比較用戶在回復(fù)謠言時表達出來的情緒,來評估用戶對真實新聞和虛假新聞的感受?!拔覀儼l(fā)現(xiàn),虛假新聞會激起更多的驚嘆和厭惡,而真相會激起更多的悲傷、期待、快樂和信任,這實際上已經(jīng)證實了我們的‘新奇性假設(shè)’。但這些情緒也揭示出,除了新奇性之外,還有哪些因素會刺激人們?nèi)シ窒砟切┨摷傩侣??!?/p>

《炒作機器:社交時代的群體盲區(qū)》
[美]錫南·阿拉爾 著 周海云 譯
中信出版集團 2022-5

在《傳染》一書,流行病學(xué)學(xué)者亞當(dāng)·庫哈爾斯基(Adam Kucharski)援引的另一項研究得出了相似的結(jié)論,亞當(dāng)致力于通過數(shù)學(xué)模型演繹傳染病和社會行為的傳播。2011年,賓夕法尼亞大學(xué)的喬納·伯杰(Jonah Berger)和凱瑟琳·米爾克曼(Katherine Milkman)研究了人們通過電子郵件分享《紐約時報》文章的情況,發(fā)現(xiàn)引發(fā)強烈情緒——無論是積極情緒(如贊嘆),還是消極情緒(如憤怒)——的文章更有可能被分享。兩位研究者指出,令人驚奇或具有實用價值是判斷一篇文章是否受歡迎的重要標準。

從這個角度來看,“伊朗廢除道德警察”和“伊朗足球運動員開賽前拒唱國歌”的消息之所以被廣泛轉(zhuǎn)發(fā)和討論,是因為它們具有某種新奇性,傳達了令人驚訝的信息,即伊朗的權(quán)利上位者能夠回應(yīng)公眾的呼聲并做出變革,而伊朗的男性能夠共情女性同胞的境遇,在明知會面臨懲罰的情況下依然公開支持抗議行動。這種新奇性既令人驚訝——我們知道它極少能在現(xiàn)實生活中發(fā)生——但也恰恰因為如此,我們才更愿意相信這些消息是真的,以回應(yīng)自身的道德期待。

但新奇性還不足以解釋虛假新聞的超強傳播力。庫哈爾斯基還提醒我們注意“復(fù)雜傳染”的現(xiàn)象,即觀念的傳播并非一蹴而就,我們要在多次接觸一個想法后才會采信它。有證據(jù)表明,我們雖然不需要太多激勵就會在網(wǎng)上分享模因(比如表情包),但除非看到不少人都在分享,否則我們不會輕易分享政治內(nèi)容。比如2013年初,一些臉書用戶將自己的頭像改成了“=”符號來支持婚姻平權(quán),平均而言,用戶要等到8個朋友更改頭像后才會效仿。

可以確定的是,社交網(wǎng)絡(luò)的結(jié)構(gòu)與運作機制為“復(fù)雜傳染”創(chuàng)造了條件。臉書的數(shù)據(jù)科學(xué)團隊在2014-2015年對其美國用戶的政治觀點進行了研究,他們發(fā)現(xiàn),人們往往會接觸到與自己所持觀點相似的觀點,臉書的算法(決定用戶“動態(tài)”中顯示的內(nèi)容)會進一步過濾掉5%-8%的政治異見。2016年牛津大學(xué)、斯坦福大學(xué)和微軟研究院的一項聯(lián)合研究發(fā)現(xiàn),美國人在社交媒體和搜索引擎上瀏覽的文章,通常比他們在自己最喜歡的新聞網(wǎng)站上看到的文章傾向性更強。另一項杜克大學(xué)的研究則發(fā)現(xiàn),關(guān)注與自己立場相反的推特賬號無助于打破“信息繭房”,參與實驗的美國志愿者反而強化了自己的政治立場,變得更保守或更自由。

《傳染:為什么疾病、金融危機和社會行為會流行?》
[英]亞當(dāng)·庫哈爾斯基 著 谷曉陽 李曈 王興偉 王雪萍 譯
新思 | 中信出版集團 2020-10

“分享”和“吸引用戶的時間和注意力”是社交媒體的設(shè)計核心,為此,一些旨在促使用戶不斷瀏覽和分享的功能被開發(fā)出來。2010年,臉書推出了“無限滾動”功能,用戶不必費心翻頁,如今這一功能已是社交媒體的常態(tài)。2015年,YouTube開發(fā)了當(dāng)前視頻結(jié)束后自動播放下一個視頻的功能,預(yù)示了接下來短視頻平臺用手劃一下就能從一個短視頻跳轉(zhuǎn)到另一個的設(shè)定。促進不斷瀏覽和分享的機制和算法一道推波助瀾,其結(jié)果是用戶重復(fù)接收了更多與自己一致的觀點。2017年,新聞研究者喬納森·奧爾布賴特(Jonathan Albright)調(diào)查了100多個極端主義宣傳網(wǎng)站后發(fā)現(xiàn),這些網(wǎng)站會收集瀏覽者的個人身份和瀏覽行為的信息(比如鼠標的移動),因而能夠跟蹤易受影響的用戶,向他們推送更多極端內(nèi)容。

鑒于上述種種原因,假新聞在很多情況下跑得比真新聞更快更遠。庫哈爾斯基認為,“線上社交網(wǎng)絡(luò)的結(jié)構(gòu)不利于用戶形成發(fā)人深思的、較為復(fù)雜多元的觀點。相比之下,那些簡單、易消化的內(nèi)容更容易在網(wǎng)上擴散?!?/p>

網(wǎng)絡(luò)滋事者和媒體操縱者是真正深刻理解網(wǎng)絡(luò)“傳染”本質(zhì)的人

2016年英國公投脫離歐盟,特朗普當(dāng)選美國總統(tǒng),一時間“后真相”成為討論熱點,并被《牛津大詞典》選為年度詞匯;社交網(wǎng)絡(luò)研究者試圖查明,假新聞(特別是由“境外勢力”投放的假新聞)在多大程度上扭曲了民意、操縱了民主投票結(jié)果。

阿拉爾認為,2016年美國大選期間,俄羅斯制作的虛假新聞在臉書上至少被傳播給了1.26億人,收獲了至少7600萬個點贊、評論和其他反饋。在Instagram上,這些虛假新聞至少影響了2000萬人,得到了至少1.87億個點贊、評論和其他反饋。俄羅斯還通過推特賬號發(fā)送了至少1000萬條推文,這些賬號擁有600萬粉絲。

但庫哈爾斯基認為,人們不應(yīng)過于高估虛假新聞網(wǎng)站和外國間諜操縱輿論的能力。他援引一項研究指出,臉書用戶可能接觸到了俄方散布的消息,但與此同時,美國用戶在該平臺上看到的消息總量超過11萬億條。平均而言,人們每接觸一條俄方的消息,就會同時接觸到9萬條其他消息。在推特上,只有不到0.75%的選舉相關(guān)推文來自與俄羅斯有關(guān)聯(lián)的賬戶,選民接觸的絕大部分信息都不是來自虛假新聞網(wǎng)站或極右翼組織,而是來自知名人士或機構(gòu)。

但這并不意味著虛假新聞不重要,庫哈爾斯基指出,一個更值得擔(dān)憂和警惕的虛假新聞傳播途徑是被稱為“蜜罐機器人”(honey pot bot)的社交媒體機器人,它們旨在吸引特定用戶的注意并引誘他們做出回應(yīng)。多位研究者指出,虛假消息或新聞的發(fā)布者最初瞄準的目標未必是普通大眾,而是那些愛用社交媒體的記者或政客,這些目標具有強大的話語權(quán),能顯著影響公共輿論。比如2017年,記者們經(jīng)常引用一個名為“wokeluisa”的推特用戶發(fā)布的消息,這個用戶乍看之下是一名紐約的年輕政治學(xué)研究生,實際上卻是由一群俄羅斯網(wǎng)絡(luò)滋事者運營的“蜜罐機器人”,針對媒體機構(gòu)“定向發(fā)帖”,以期建立公信力,讓信息擴散。

庫哈爾斯基指出,與真正的傳染病一樣,網(wǎng)絡(luò)消息的擴散也有“同源性傳播”和“延伸性傳播”兩種模式,前者指所有人從相同來源感染,后者指多輪人際傳播。從單一來源傳播給很多人也被稱為“廣播事件”,研究發(fā)現(xiàn),網(wǎng)絡(luò)熱帖背后通常都有一個廣播事件。這也是“蜜罐機器人”的運作邏輯:通過KOL的“背書”(那可能是機構(gòu)媒體、網(wǎng)紅或政客),一條消息可以迅速傳播開去?!叭绻麤]有廣播事件的放大效應(yīng),這些極端思想很難傳開。如果一個觀點變得流行,通常都是知名人士和媒體有意無意地助長了它的傳播?!?/p>

雪上加霜的是,社交網(wǎng)絡(luò)時代的新聞業(yè)性質(zhì)已經(jīng)發(fā)生了變化,媒體從業(yè)者也越來越難抵御虛假消息的操縱。媒體對分享和點擊量的渴求越來越強烈,由于具有“傳染性”的觀點往往是備受關(guān)注的觀點,即使其內(nèi)容不實,媒體也會為其大開方便之門。在庫哈爾斯基看來,網(wǎng)絡(luò)滋事者和媒體操縱者是真正深刻理解網(wǎng)絡(luò)“傳染”本質(zhì)的那群人,“從技術(shù)角度來看,大多數(shù)媒體操縱者并不是在利用網(wǎng)絡(luò)傳播系統(tǒng)的技術(shù)漏洞,而是在奉行它的激勵機制。”

“虛假新聞”(fake news)其實是一個非常概括性的詞語,它包括了幾種不同的情況:誘導(dǎo)點擊的信息、陰謀論、錯誤信息(misinformation)和虛假信息(disinformation)。庫哈爾斯基認為,虛假信息是其中最危險的一種形式,它不僅誘導(dǎo)人們?nèi)ハ嘈佩e誤的事實,而且會讓人們懷疑真相本身,“通過混淆視聽,它們使人無法確定真實情況?!?/p>

阿拉爾指出,當(dāng)虛假新聞并非完全捏造的時候,它通常會通過調(diào)整或扭曲現(xiàn)實與真實信息混雜在一起,然后突出其中最聳人聽聞和最情緒化的元素。如此一來,它們就會在社交媒體上迅速擴散,其傳播速度遠遠快于驗證或反駁的速度,一旦傳播開來,很難完全清除其影響。

以歐美國家的反疫苗運動為例。麻疹-腮腺炎-風(fēng)疹疫苗會導(dǎo)致自閉癥的謠言始于1998年《柳葉刀》發(fā)表的一篇欺詐性論文,雖然這篇論文遭到了質(zhì)疑并被撤稿,作者安德魯·韋克菲爾德(Andrew Wakefield)也在英國被吊銷了醫(yī)師執(zhí)照,但英國媒體注意到了韋克菲爾德的說法并進一步夸大其詞。這一虛假信息的傳播和影響力是持久性的,給公共衛(wèi)生造成了極大挑戰(zhàn),因為人們拒絕接種疫苗,麻疹在美國死灰復(fù)燃。2019年年初,臉書上所有關(guān)于疫苗的搜索結(jié)果都已經(jīng)被反疫苗的宣傳主導(dǎo);同年的一項調(diào)查顯示,和亞非國家相比,歐洲國家的人對疫苗的信任度更低。

值得慶幸的是,有證據(jù)顯示我們可以減緩虛假信息的蔓延,即使無法完全根除它們。臉書的研究人員發(fā)現(xiàn),如果用戶迅速向分享虛假消息的朋友指出問題,后者有20%的概率會刪除分享內(nèi)容。社交媒體運營方也可以采取措施減慢傳播的速度,比如在印度發(fā)生了一系列由謠言引發(fā)的攻擊事件后,WhatsApp設(shè)置印度用戶只能將消息轉(zhuǎn)發(fā)給五個人。

無論如何,我們需要認識到,是人類自己讓虛假新聞的傳播比真相來得更快更廣。它或許是一個將一直伴隨信息交流存在的現(xiàn)象,但在深入理解其本質(zhì)后,我們有可能提升自己分辨真?zhèn)蔚哪芰?,影響社交網(wǎng)絡(luò)的運作機制,進而減小虛假新聞的危害。

參考資料:

【美】錫南·阿拉爾.《炒作機器:社交時代的群體盲區(qū)》.中信出版集團.2022.

【英】亞當(dāng)·庫哈爾斯基.《傳染:為什么疾病、金融危機和社會行為會流行?》.中信出版集團.2020.

《伊朗道德警察存廢未明,抗議者發(fā)起三天罷工》,界面新聞

http://m.hbyanyusl.cn/article/8521114.html

《廢除道德警察,是來自伊朗政府的假新聞丨抗爭仍未終止》,公眾號“蕩秋千的婦女”

https://mp.weixin.qq.com/s/2aNWF-w29ZU-GJfVhKWk6Q

 

未經(jīng)正式授權(quán)嚴禁轉(zhuǎn)載本文,侵權(quán)必究。