正在閱讀:

造個(gè)破謠而已,咋還用上AI了?

掃一掃下載界面新聞APP

造個(gè)破謠而已,咋還用上AI了?

先了解,再破除。

文|腦極體

最近,央視等各大媒體紛紛曝光了全國多起用AI炮制網(wǎng)絡(luò)謠言的案例,其中涉及災(zāi)害、安全事故、刑事案件等多類謠言內(nèi)容,造謠的方式更是從文案到圖片、視頻不一而足。

看到這樣的消息,總是會(huì)加重我們對(duì)AI的擔(dān)憂,聯(lián)想到此前的AI詐騙、deepfake等,AI仿佛是越來越壞了,至少它已經(jīng)變成了一種可以被不法分子利用的工具。

但也有網(wǎng)友問了,不就是造個(gè)謠嗎?這東西去村口轉(zhuǎn)一圈,聽大爺大媽聊一會(huì),輕輕松松能收集個(gè)百八十條的,怎么還得用上AI這種高科技了?這不法分子是太懶了,還是過于缺乏想象力?

這其實(shí)是個(gè)很重要的問題,我們今天就通過這些已經(jīng)被公開報(bào)道的案例,來聊一聊用AI造謠背后的動(dòng)機(jī)與行為邏輯。了解了這些之后,才能更有針對(duì)性、靈活性地遏制AI造謠。

正所謂恐懼源于未知。AI造謠這事,乍聽起來魔幻且恐怖。但如果我們逐層拆解它、了解它,會(huì)發(fā)現(xiàn)不過爾爾。

不必恐懼AI。就像火能帶來溫暖也能帶來火災(zāi),絕大多數(shù)技術(shù)都是雙刃劍。重點(diǎn)是誰來使用它,以及如何使用它。

從瞎編,到AI批量化高水準(zhǔn)瞎編

在電影《保你平安》里,魏平安費(fèi)勁千辛萬苦,最后發(fā)現(xiàn)謠言來源不過是為了幾塊錢在論壇隨便發(fā)了一句評(píng)論。

很多朋友看完電影覺得這樣的動(dòng)機(jī)有點(diǎn)離譜,但從曝光出來的AI造謠案件中,我們會(huì)發(fā)現(xiàn)這種卑鄙且低端的行為還真不在少數(shù),只不過貪圖論壇幣的行為確實(shí)過分奇葩。大部分網(wǎng)絡(luò)造謠者的利益動(dòng)機(jī),還是希望獲取流量來換取平臺(tái)補(bǔ)貼并變現(xiàn),這也就導(dǎo)致他們需要在信息流或者短視頻平臺(tái)發(fā)布內(nèi)容。

要知道,這些平臺(tái)目前的流量補(bǔ)貼已經(jīng)很低了,而即使是聳人聽聞的謠言內(nèi)容,也需要標(biāo)題、文案、圖片配合好,才能大差不差、以假亂真。結(jié)果往往是造謠者瞎編了半天,收益微乎其微。有這個(gè)能力和時(shí)間,可能還不如去找個(gè)文案、編輯類的工作來做。

這可怎么辦呢?于是就產(chǎn)生了造謠者選擇AI的第一個(gè)動(dòng)機(jī):更快、更簡單地編造謠言。

我們能在很多案例里發(fā)現(xiàn),用AI造謠并沒有什么神秘的,不法分子就是需要AI的簡單高效。根據(jù)《北京日?qǐng)?bào)》8月1日?qǐng)?bào)道,在一系列編造某地水災(zāi)的網(wǎng)絡(luò)謠言背后,造謠者僅僅是利用手機(jī)瀏覽器自帶的AI文本生成功能,輸入了“暴雨”等相關(guān)關(guān)鍵詞,就得到了水災(zāi)相關(guān)的新聞稿。

除了根據(jù)關(guān)鍵詞直接生成通稿,AI文本生成還可以對(duì)已有文案進(jìn)行渲染。造謠者會(huì)命令A(yù)I,對(duì)懸疑、驚悚、情緒對(duì)立等內(nèi)容進(jìn)行強(qiáng)化和夸大。由此生成看起來更真實(shí)細(xì)膩,且容易讓人相信的謠言內(nèi)容。換句話說,很多煞有介事的小作文原本要自己編,現(xiàn)在可以交給AI了。

還有一種用AI造謠的方法,是將原本的新聞進(jìn)行移花接木。最近甘肅平?jīng)鍪泄剂艘黄鸢咐右扇耸峭ㄟ^AI軟件來大量篡改此前的新聞內(nèi)容。比如將新聞的地點(diǎn)、時(shí)間、人名進(jìn)行替換,以此來批量制造謠言內(nèi)容。這些謠言大部分是某地發(fā)生了自然災(zāi)害、交通事故、刑事案件。由于是批量制造,這些謠言涉及各個(gè)地方,加上不同地區(qū)的用戶會(huì)被算法推薦本地新聞,這些某某地發(fā)生水災(zāi)、火災(zāi)的謠言很容易產(chǎn)生流量。

歸根結(jié)底,AI技術(shù)在這些造謠事件中,起到的只是一個(gè)加速謠言生產(chǎn)的工具作用。假如沒有AI,這些人大概率也會(huì)想到這種編造謠言的方式,只不過需要自己一點(diǎn)點(diǎn)編輯加杜撰。又或許,AI寫稿能力的出現(xiàn),讓連造謠“辛苦”也不想吃的懶漢們找到了門徑。

我們無需污名化AI。AI加速文案生成,這個(gè)能力本身是有價(jià)值的,只是好人和壞人看到了它的不同應(yīng)用方式。

貼合大數(shù)據(jù)需求的精準(zhǔn)造謠

造謠者利用AI技術(shù),僅僅只有一個(gè)動(dòng)機(jī)嗎?其實(shí)也不盡然。

對(duì)于很多造謠者來說,有流量、有話題度就是他們的最終目標(biāo)。無論是出于病態(tài)心理還是利益訴求,能讓人看的謠言才對(duì)于造謠者來說具有價(jià)值,但想要實(shí)現(xiàn)這事,可能還真不那么容易。造什么謠才能讓人想看呢?甚至于什么謠言才能在一大堆競品謠言中脫穎而出呢?以前這可能需要造謠者一個(gè)個(gè)關(guān)鍵詞,一個(gè)個(gè)謠言類型去嘗試,但現(xiàn)在情況開始改變了,造謠者可能不知道,但是AI知道啊,于是他們可以直接命令A(yù)I來做。

這就引出了用AI造謠的第二個(gè)動(dòng)機(jī):利用AI洞察大數(shù)據(jù)的能力。

用過生成式AI的朋友應(yīng)該有所體會(huì),如果你向AI提出諸如“文案里要有網(wǎng)絡(luò)?!薄拔陌敢屇贻p人愛看”之類的需求,會(huì)發(fā)現(xiàn)很多時(shí)候AI比我們更懂網(wǎng)絡(luò),更懂流量。甚至還可以讓AI生成“老年人愛看”“能引發(fā)中年焦慮”“能挑起性別話題”等內(nèi)容。

這背后的技術(shù)原理,就是大模型具有更好的泛化信息理解能力,可以將沒有直接關(guān)聯(lián)的信息按照語義結(jié)合在一起。顯然,造謠者對(duì)技術(shù)原理不感興趣,但很快掌握了大模型的應(yīng)用竅門。

在河南鄭州市通報(bào)的一起案例中,嫌疑人就是通過對(duì)AI下命令,進(jìn)行提示的方式獲得謠言內(nèi)容的。他要求AI生成的內(nèi)容要能吸引眼球,并且明確說明要讓年輕人看到。在這些提示關(guān)鍵詞的要求下,AI生成了很多內(nèi)容,嫌疑人最終選擇了自己比較滿意的進(jìn)行發(fā)布。

可以看到,這個(gè)造謠原理,基本已經(jīng)跟現(xiàn)在很火的職業(yè)“AI提示工程師”非常相近了。AI大模型帶來的底層邏輯變革之一,就是人類可以不用搜索和點(diǎn)擊來進(jìn)行數(shù)字化交互,而是直接向AI提出需求,這一點(diǎn)也先被造謠者學(xué)會(huì)了。

而讓人啼笑皆非的是,這名嫌疑人提示AI制造的謠言,最終確實(shí)引發(fā)了關(guān)注。只不過在給造謠者帶來二三百元收益的同時(shí),還帶來了法律的制裁。

有圖,沒真相

還有那么一些造謠者,他們想要造謠騙取流量或?qū)崿F(xiàn)其他目的,但苦于沒有能讓人信服的所謂“證據(jù)”。畢竟大多數(shù)網(wǎng)友也知道,空口無憑,有圖有真相,而一些謠言很快被拆穿,也是因?yàn)樵熘{者利用了此前網(wǎng)絡(luò)上已經(jīng)發(fā)布過的圖片。比如說前不久的某流量明星火速辟謠事件。

但如果能讓AI做出來看著有點(diǎn)真,此前又沒出現(xiàn)過的圖片,這個(gè)難題似乎也就攻克了。于是就有了用AI造謠的第三個(gè)動(dòng)機(jī):通過AIGC平臺(tái)來生成作為論據(jù)的圖片。

還記得今年年初在土耳其大地震期間,就有人在推特上散布謠言,稱自己是消防員、志愿者等,以此請(qǐng)求捐款。而信息中的配圖就是AIGC平臺(tái)合成的。由此可見,有圖有真相的時(shí)代真的已經(jīng)過去了。在今天,只要能夠熟練使用AIGC軟件,想要什么圖基本都是可行的,而且很可能以假亂真。

這里要說的是,AIGC圖片并沒有那么神。其擬真程度甚至比不過大部分PS高手。但問題是,PS并非人人都會(huì),使用AIGC則只需要按教程學(xué)一遍就能上手。于是不少游手好閑者開始用AIGC制造“謠圖”,其中最惡心的一種,就是用AI來造黃謠。

不久前,《光明日?qǐng)?bào)》就報(bào)道了一位女士在社交網(wǎng)絡(luò)上發(fā)現(xiàn)了用自己面容合成的不雅圖片。報(bào)道中還稱,相關(guān)的AI制圖工具堪稱唾手可得,并且還有人在社交平臺(tái)上兜售相關(guān)視頻、訂制換臉服務(wù)、販賣操作教學(xué)等。

用AI換臉的Deepfake技術(shù)堪稱屢禁不止,而AIGC平臺(tái)的出現(xiàn)還讓相關(guān)問題愈演愈烈。在一些缺乏監(jiān)管的海外AIGC平臺(tái),用戶基本可以在無技術(shù)門檻的情況下獲得訂制化的不雅圖片。隨著AI技術(shù)的前進(jìn),造謠者的工具箱也確實(shí)更加豐富了。

如何對(duì)抗這股歪風(fēng)邪氣?

奧爾波特在《謠言心理學(xué)》提出,想要限制謠言的傳播,需要做到三件事:法律上嚴(yán)懲不貸、社會(huì)中進(jìn)行阻隔、公民具備謠言意識(shí)。

其實(shí)最近備受關(guān)注的AI造謠,本質(zhì)上與此前的網(wǎng)絡(luò)謠言基本沒有不同,唯一的變化就是造謠的門檻更底了,于是必然會(huì)有人覺得用AI造謠更加劃算。

歸根結(jié)底,大部分的AI造謠都是為流量和平臺(tái)分成而來。這種造謠其實(shí)原本也有,但如果想要做大做強(qiáng),可能需要幾個(gè)寫手、幾個(gè)美工,有網(wǎng)絡(luò)運(yùn)營和大數(shù)據(jù)分析人員。類似電影《孤注一擲》里,詐騙集團(tuán)就按“千門八將”分了八個(gè)部門,其中就有專門散播謠言的“謠部”。

但對(duì)于絕大多數(shù)造謠者來說,目標(biāo)都僅僅是流量,而不是詐騙、勒索、敲詐這種重大刑事犯罪,他們的賊心和賊膽都不夠,并且也不會(huì)寫,不會(huì)P圖。

于是對(duì)于他們來說,用AI來炮制謠言就顯得更加劃算,尤其在大模型出現(xiàn)之后,一個(gè)人就可以是一只謠言隊(duì)伍,基本不用分工協(xié)作。

想要讓這股AI造謠的歪風(fēng)邪氣不再猖獗,也需要從這三個(gè)方面入手,讓AI造謠變得不再那么具有性價(jià)比。

首先當(dāng)然是嚴(yán)懲不貸。從目前曝光的AI造謠案例中來看,大部分造謠者都是產(chǎn)生的影響很壞,但真正的收益很少。持續(xù)的犯罪打擊與案例宣傳,會(huì)讓更多造謠者與準(zhǔn)造謠者看到,AI造謠雖然看似成本低,但其實(shí)是非常不具備性價(jià)比的一件事。

接下來是建立造謠者在炮制、傳播、獲利等環(huán)節(jié)中的社會(huì)阻隔。很多相關(guān)討論,都說可以用AI來檢測AI內(nèi)容,用魔法打敗魔法。事實(shí)上,這樣做當(dāng)然可以,但技術(shù)上的實(shí)現(xiàn)空間很窄。比如說,讓AI炮制一條假新聞很容易,但要讓AI對(duì)比所有新聞數(shù)據(jù),然后確定某條信息是假的,這個(gè)技術(shù)難度相當(dāng)大。AI檢測謠言工具,在一段時(shí)間內(nèi)將更多是輔助性質(zhì)。

想要從技術(shù)上建立造謠者與AI工具之間的組個(gè),還是需要從AIGC工具上入手。讓AI模型知道自己在寫什么、生成什么圖片,一旦遇到不合理、不合法的內(nèi)容主動(dòng)屏蔽,從而讓造謠者不能那么順利地應(yīng)用AI。

與此同時(shí),還需要在利益層建立給造謠者建立阻隔。大多數(shù)AI造謠案例的獲利方式都是平臺(tái)分成。那么我們是不是可以考慮唯流量論的分成體現(xiàn)機(jī)制是否過于簡單粗暴?且必然給謠言留下了滋生空間?畢竟沒人看狗咬人,都想看人咬狗。降低、甚至切斷這些毫無營養(yǎng)的謠言內(nèi)容獲利渠道,也是重要的社會(huì)阻隔方式。

最后才是用戶必須提高謠言意識(shí)。畢竟絕大多數(shù)人不是專家,不可能就看到的每條信息都考證二三,因此確實(shí)不能將太多分辨謠言的責(zé)任推給最終用戶。但至少我們需要知道,確實(shí)有AI炮制假新聞,AI偽造圖片這種可能性的存在。

另外還是想說,AI不可怕,用AI造謠也不可怕。心懷不軌之人,會(huì)利用一切可資利用的技術(shù)與工具。今天有AI,明天就有BI、CI,他們瞧上了AI,恰好說明AI確實(shí)已經(jīng)做到了可利用和低門檻,如果因此就懷疑和污名化AI,豈不就把它白白讓給了到處散德行的小人?

技術(shù)沒有好壞,人心才有。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。

評(píng)論

暫無評(píng)論哦,快來評(píng)價(jià)一下吧!

下載界面新聞

微信公眾號(hào)

微博

造個(gè)破謠而已,咋還用上AI了?

先了解,再破除。

文|腦極體

最近,央視等各大媒體紛紛曝光了全國多起用AI炮制網(wǎng)絡(luò)謠言的案例,其中涉及災(zāi)害、安全事故、刑事案件等多類謠言內(nèi)容,造謠的方式更是從文案到圖片、視頻不一而足。

看到這樣的消息,總是會(huì)加重我們對(duì)AI的擔(dān)憂,聯(lián)想到此前的AI詐騙、deepfake等,AI仿佛是越來越壞了,至少它已經(jīng)變成了一種可以被不法分子利用的工具。

但也有網(wǎng)友問了,不就是造個(gè)謠嗎?這東西去村口轉(zhuǎn)一圈,聽大爺大媽聊一會(huì),輕輕松松能收集個(gè)百八十條的,怎么還得用上AI這種高科技了?這不法分子是太懶了,還是過于缺乏想象力?

這其實(shí)是個(gè)很重要的問題,我們今天就通過這些已經(jīng)被公開報(bào)道的案例,來聊一聊用AI造謠背后的動(dòng)機(jī)與行為邏輯。了解了這些之后,才能更有針對(duì)性、靈活性地遏制AI造謠。

正所謂恐懼源于未知。AI造謠這事,乍聽起來魔幻且恐怖。但如果我們逐層拆解它、了解它,會(huì)發(fā)現(xiàn)不過爾爾。

不必恐懼AI。就像火能帶來溫暖也能帶來火災(zāi),絕大多數(shù)技術(shù)都是雙刃劍。重點(diǎn)是誰來使用它,以及如何使用它。

從瞎編,到AI批量化高水準(zhǔn)瞎編

在電影《保你平安》里,魏平安費(fèi)勁千辛萬苦,最后發(fā)現(xiàn)謠言來源不過是為了幾塊錢在論壇隨便發(fā)了一句評(píng)論。

很多朋友看完電影覺得這樣的動(dòng)機(jī)有點(diǎn)離譜,但從曝光出來的AI造謠案件中,我們會(huì)發(fā)現(xiàn)這種卑鄙且低端的行為還真不在少數(shù),只不過貪圖論壇幣的行為確實(shí)過分奇葩。大部分網(wǎng)絡(luò)造謠者的利益動(dòng)機(jī),還是希望獲取流量來換取平臺(tái)補(bǔ)貼并變現(xiàn),這也就導(dǎo)致他們需要在信息流或者短視頻平臺(tái)發(fā)布內(nèi)容。

要知道,這些平臺(tái)目前的流量補(bǔ)貼已經(jīng)很低了,而即使是聳人聽聞的謠言內(nèi)容,也需要標(biāo)題、文案、圖片配合好,才能大差不差、以假亂真。結(jié)果往往是造謠者瞎編了半天,收益微乎其微。有這個(gè)能力和時(shí)間,可能還不如去找個(gè)文案、編輯類的工作來做。

這可怎么辦呢?于是就產(chǎn)生了造謠者選擇AI的第一個(gè)動(dòng)機(jī):更快、更簡單地編造謠言。

我們能在很多案例里發(fā)現(xiàn),用AI造謠并沒有什么神秘的,不法分子就是需要AI的簡單高效。根據(jù)《北京日?qǐng)?bào)》8月1日?qǐng)?bào)道,在一系列編造某地水災(zāi)的網(wǎng)絡(luò)謠言背后,造謠者僅僅是利用手機(jī)瀏覽器自帶的AI文本生成功能,輸入了“暴雨”等相關(guān)關(guān)鍵詞,就得到了水災(zāi)相關(guān)的新聞稿。

除了根據(jù)關(guān)鍵詞直接生成通稿,AI文本生成還可以對(duì)已有文案進(jìn)行渲染。造謠者會(huì)命令A(yù)I,對(duì)懸疑、驚悚、情緒對(duì)立等內(nèi)容進(jìn)行強(qiáng)化和夸大。由此生成看起來更真實(shí)細(xì)膩,且容易讓人相信的謠言內(nèi)容。換句話說,很多煞有介事的小作文原本要自己編,現(xiàn)在可以交給AI了。

還有一種用AI造謠的方法,是將原本的新聞進(jìn)行移花接木。最近甘肅平?jīng)鍪泄剂艘黄鸢咐?,嫌疑人是通過AI軟件來大量篡改此前的新聞內(nèi)容。比如將新聞的地點(diǎn)、時(shí)間、人名進(jìn)行替換,以此來批量制造謠言內(nèi)容。這些謠言大部分是某地發(fā)生了自然災(zāi)害、交通事故、刑事案件。由于是批量制造,這些謠言涉及各個(gè)地方,加上不同地區(qū)的用戶會(huì)被算法推薦本地新聞,這些某某地發(fā)生水災(zāi)、火災(zāi)的謠言很容易產(chǎn)生流量。

歸根結(jié)底,AI技術(shù)在這些造謠事件中,起到的只是一個(gè)加速謠言生產(chǎn)的工具作用。假如沒有AI,這些人大概率也會(huì)想到這種編造謠言的方式,只不過需要自己一點(diǎn)點(diǎn)編輯加杜撰。又或許,AI寫稿能力的出現(xiàn),讓連造謠“辛苦”也不想吃的懶漢們找到了門徑。

我們無需污名化AI。AI加速文案生成,這個(gè)能力本身是有價(jià)值的,只是好人和壞人看到了它的不同應(yīng)用方式。

貼合大數(shù)據(jù)需求的精準(zhǔn)造謠

造謠者利用AI技術(shù),僅僅只有一個(gè)動(dòng)機(jī)嗎?其實(shí)也不盡然。

對(duì)于很多造謠者來說,有流量、有話題度就是他們的最終目標(biāo)。無論是出于病態(tài)心理還是利益訴求,能讓人看的謠言才對(duì)于造謠者來說具有價(jià)值,但想要實(shí)現(xiàn)這事,可能還真不那么容易。造什么謠才能讓人想看呢?甚至于什么謠言才能在一大堆競品謠言中脫穎而出呢?以前這可能需要造謠者一個(gè)個(gè)關(guān)鍵詞,一個(gè)個(gè)謠言類型去嘗試,但現(xiàn)在情況開始改變了,造謠者可能不知道,但是AI知道啊,于是他們可以直接命令A(yù)I來做。

這就引出了用AI造謠的第二個(gè)動(dòng)機(jī):利用AI洞察大數(shù)據(jù)的能力。

用過生成式AI的朋友應(yīng)該有所體會(huì),如果你向AI提出諸如“文案里要有網(wǎng)絡(luò)?!薄拔陌敢屇贻p人愛看”之類的需求,會(huì)發(fā)現(xiàn)很多時(shí)候AI比我們更懂網(wǎng)絡(luò),更懂流量。甚至還可以讓AI生成“老年人愛看”“能引發(fā)中年焦慮”“能挑起性別話題”等內(nèi)容。

這背后的技術(shù)原理,就是大模型具有更好的泛化信息理解能力,可以將沒有直接關(guān)聯(lián)的信息按照語義結(jié)合在一起。顯然,造謠者對(duì)技術(shù)原理不感興趣,但很快掌握了大模型的應(yīng)用竅門。

在河南鄭州市通報(bào)的一起案例中,嫌疑人就是通過對(duì)AI下命令,進(jìn)行提示的方式獲得謠言內(nèi)容的。他要求AI生成的內(nèi)容要能吸引眼球,并且明確說明要讓年輕人看到。在這些提示關(guān)鍵詞的要求下,AI生成了很多內(nèi)容,嫌疑人最終選擇了自己比較滿意的進(jìn)行發(fā)布。

可以看到,這個(gè)造謠原理,基本已經(jīng)跟現(xiàn)在很火的職業(yè)“AI提示工程師”非常相近了。AI大模型帶來的底層邏輯變革之一,就是人類可以不用搜索和點(diǎn)擊來進(jìn)行數(shù)字化交互,而是直接向AI提出需求,這一點(diǎn)也先被造謠者學(xué)會(huì)了。

而讓人啼笑皆非的是,這名嫌疑人提示AI制造的謠言,最終確實(shí)引發(fā)了關(guān)注。只不過在給造謠者帶來二三百元收益的同時(shí),還帶來了法律的制裁。

有圖,沒真相

還有那么一些造謠者,他們想要造謠騙取流量或?qū)崿F(xiàn)其他目的,但苦于沒有能讓人信服的所謂“證據(jù)”。畢竟大多數(shù)網(wǎng)友也知道,空口無憑,有圖有真相,而一些謠言很快被拆穿,也是因?yàn)樵熘{者利用了此前網(wǎng)絡(luò)上已經(jīng)發(fā)布過的圖片。比如說前不久的某流量明星火速辟謠事件。

但如果能讓AI做出來看著有點(diǎn)真,此前又沒出現(xiàn)過的圖片,這個(gè)難題似乎也就攻克了。于是就有了用AI造謠的第三個(gè)動(dòng)機(jī):通過AIGC平臺(tái)來生成作為論據(jù)的圖片。

還記得今年年初在土耳其大地震期間,就有人在推特上散布謠言,稱自己是消防員、志愿者等,以此請(qǐng)求捐款。而信息中的配圖就是AIGC平臺(tái)合成的。由此可見,有圖有真相的時(shí)代真的已經(jīng)過去了。在今天,只要能夠熟練使用AIGC軟件,想要什么圖基本都是可行的,而且很可能以假亂真。

這里要說的是,AIGC圖片并沒有那么神。其擬真程度甚至比不過大部分PS高手。但問題是,PS并非人人都會(huì),使用AIGC則只需要按教程學(xué)一遍就能上手。于是不少游手好閑者開始用AIGC制造“謠圖”,其中最惡心的一種,就是用AI來造黃謠。

不久前,《光明日?qǐng)?bào)》就報(bào)道了一位女士在社交網(wǎng)絡(luò)上發(fā)現(xiàn)了用自己面容合成的不雅圖片。報(bào)道中還稱,相關(guān)的AI制圖工具堪稱唾手可得,并且還有人在社交平臺(tái)上兜售相關(guān)視頻、訂制換臉服務(wù)、販賣操作教學(xué)等。

用AI換臉的Deepfake技術(shù)堪稱屢禁不止,而AIGC平臺(tái)的出現(xiàn)還讓相關(guān)問題愈演愈烈。在一些缺乏監(jiān)管的海外AIGC平臺(tái),用戶基本可以在無技術(shù)門檻的情況下獲得訂制化的不雅圖片。隨著AI技術(shù)的前進(jìn),造謠者的工具箱也確實(shí)更加豐富了。

如何對(duì)抗這股歪風(fēng)邪氣?

奧爾波特在《謠言心理學(xué)》提出,想要限制謠言的傳播,需要做到三件事:法律上嚴(yán)懲不貸、社會(huì)中進(jìn)行阻隔、公民具備謠言意識(shí)。

其實(shí)最近備受關(guān)注的AI造謠,本質(zhì)上與此前的網(wǎng)絡(luò)謠言基本沒有不同,唯一的變化就是造謠的門檻更底了,于是必然會(huì)有人覺得用AI造謠更加劃算。

歸根結(jié)底,大部分的AI造謠都是為流量和平臺(tái)分成而來。這種造謠其實(shí)原本也有,但如果想要做大做強(qiáng),可能需要幾個(gè)寫手、幾個(gè)美工,有網(wǎng)絡(luò)運(yùn)營和大數(shù)據(jù)分析人員。類似電影《孤注一擲》里,詐騙集團(tuán)就按“千門八將”分了八個(gè)部門,其中就有專門散播謠言的“謠部”。

但對(duì)于絕大多數(shù)造謠者來說,目標(biāo)都僅僅是流量,而不是詐騙、勒索、敲詐這種重大刑事犯罪,他們的賊心和賊膽都不夠,并且也不會(huì)寫,不會(huì)P圖。

于是對(duì)于他們來說,用AI來炮制謠言就顯得更加劃算,尤其在大模型出現(xiàn)之后,一個(gè)人就可以是一只謠言隊(duì)伍,基本不用分工協(xié)作。

想要讓這股AI造謠的歪風(fēng)邪氣不再猖獗,也需要從這三個(gè)方面入手,讓AI造謠變得不再那么具有性價(jià)比。

首先當(dāng)然是嚴(yán)懲不貸。從目前曝光的AI造謠案例中來看,大部分造謠者都是產(chǎn)生的影響很壞,但真正的收益很少。持續(xù)的犯罪打擊與案例宣傳,會(huì)讓更多造謠者與準(zhǔn)造謠者看到,AI造謠雖然看似成本低,但其實(shí)是非常不具備性價(jià)比的一件事。

接下來是建立造謠者在炮制、傳播、獲利等環(huán)節(jié)中的社會(huì)阻隔。很多相關(guān)討論,都說可以用AI來檢測AI內(nèi)容,用魔法打敗魔法。事實(shí)上,這樣做當(dāng)然可以,但技術(shù)上的實(shí)現(xiàn)空間很窄。比如說,讓AI炮制一條假新聞很容易,但要讓AI對(duì)比所有新聞數(shù)據(jù),然后確定某條信息是假的,這個(gè)技術(shù)難度相當(dāng)大。AI檢測謠言工具,在一段時(shí)間內(nèi)將更多是輔助性質(zhì)。

想要從技術(shù)上建立造謠者與AI工具之間的組個(gè),還是需要從AIGC工具上入手。讓AI模型知道自己在寫什么、生成什么圖片,一旦遇到不合理、不合法的內(nèi)容主動(dòng)屏蔽,從而讓造謠者不能那么順利地應(yīng)用AI。

與此同時(shí),還需要在利益層建立給造謠者建立阻隔。大多數(shù)AI造謠案例的獲利方式都是平臺(tái)分成。那么我們是不是可以考慮唯流量論的分成體現(xiàn)機(jī)制是否過于簡單粗暴?且必然給謠言留下了滋生空間?畢竟沒人看狗咬人,都想看人咬狗。降低、甚至切斷這些毫無營養(yǎng)的謠言內(nèi)容獲利渠道,也是重要的社會(huì)阻隔方式。

最后才是用戶必須提高謠言意識(shí)。畢竟絕大多數(shù)人不是專家,不可能就看到的每條信息都考證二三,因此確實(shí)不能將太多分辨謠言的責(zé)任推給最終用戶。但至少我們需要知道,確實(shí)有AI炮制假新聞,AI偽造圖片這種可能性的存在。

另外還是想說,AI不可怕,用AI造謠也不可怕。心懷不軌之人,會(huì)利用一切可資利用的技術(shù)與工具。今天有AI,明天就有BI、CI,他們瞧上了AI,恰好說明AI確實(shí)已經(jīng)做到了可利用和低門檻,如果因此就懷疑和污名化AI,豈不就把它白白讓給了到處散德行的小人?

技術(shù)沒有好壞,人心才有。

本文為轉(zhuǎn)載內(nèi)容,授權(quán)事宜請(qǐng)聯(lián)系原著作權(quán)人。