如今,人類信息技術(shù)已達到前所未有的高度,只需輸入幾個關(guān)鍵詞,AI就能立馬“一鍵生成”圖文視頻。然而,這項技術(shù)甫一出現(xiàn),就被一些不法分子盯上——“AI謠言”正成為侵蝕社會信任、侵害公民權(quán)益、擾亂市場秩序的新型網(wǎng)絡(luò)毒瘤。對此,清華大學(xué)新聞與傳播學(xué)院新媒體研究中心2024年發(fā)布的報告《揭秘AI謠言:傳播路徑與治理策略全解析》指出,人工智能工具的不當(dāng)使用,使得AI謠言量高速增長、逐步成勢,近半年信息量增長65%。
日前,法治網(wǎng)研究院邀請最高人民檢察院檢察理論研究所信息部主任石磊、北京互聯(lián)網(wǎng)法院綜合審判二庭副庭長張倩、南開大學(xué)法學(xué)院副院長陳兵教授、中國人民大學(xué)刑事法律科學(xué)研究中心主任時延安教授、《法治日報》律師專家?guī)斐蓡T曾鐵山,深度剖析AI謠言的深層威脅與治理難點,并建言獻策,探討如何在擁抱技術(shù)創(chuàng)新的同時,讓AI發(fā)展守住法治的邊界和底線,構(gòu)建精準高效的AI謠言治理體系,守護清朗網(wǎng)絡(luò)空間。
01
法治網(wǎng)研究院:當(dāng)前,AI技術(shù)在文本生成、圖片創(chuàng)作、視頻制作等方面的應(yīng)用越來越廣泛,只需輸入幾個關(guān)鍵詞即可快速生成一篇文章、一幅圖片、一段視頻。近年來,一些不法分子利用AI軟件生成編造虛假信息,使AI類網(wǎng)絡(luò)謠言滋生擴散,引發(fā)社會廣泛關(guān)注。近期,更是接連出現(xiàn)了多起關(guān)于汛情通報、警情通報的AI謠言。與其他類型謠言相比,您怎么看待AI謠言的危害性及其特點?
石磊:作為網(wǎng)絡(luò)謠言的變種,AI謠言背后隱藏著的是人。一些不法分子對AI技術(shù)的不當(dāng)應(yīng)用,讓網(wǎng)絡(luò)謠言“如虎添翼”,使得AI謠言從廣度、深度、后果、傳播速度等方面都比傳統(tǒng)的網(wǎng)絡(luò)謠言更強大。
此類謠言或惡意編造不實信息,破壞社會信任,或捕風(fēng)捉影歪曲事實,侵害公眾利益,需要各界引起高度關(guān)注。
張倩:近年來,隨著人工智能工具日漸普及,利用人工智能技術(shù)炮制虛假不實信息在互聯(lián)網(wǎng)散布謠言的現(xiàn)象越來越突出。AI謠言制造者通過AI軟件輸入關(guān)鍵詞,對網(wǎng)絡(luò)中海量真實存在的音視頻、文字圖像等內(nèi)容進行針對性提取,并定制化生成虛假信息。信息內(nèi)容接近真實和客觀存在的水平,擬真度高、迷惑性強。
AI造謠行為涉及深度偽造、內(nèi)容精準分發(fā)等技術(shù),需要抓取、運用用戶身份信息、網(wǎng)絡(luò)行為數(shù)據(jù)、生物性數(shù)據(jù)等行為,對公眾隱私權(quán)、肖像權(quán)、名譽權(quán)等多種個人權(quán)利的潛在威脅和直接侵犯。比如,采用深度偽造技術(shù)將具有可識別的核心面部肖像摳出、進行“AI換臉”造謠,這就涉及人臉監(jiān)測、人臉關(guān)鍵點定位、人臉特征提取等多項技術(shù)。
AI謠言易成為不法分子吸粉引流,開展商業(yè)不正當(dāng)競爭的手段。互聯(lián)網(wǎng)內(nèi)容平臺根據(jù)用戶點擊量、閱讀量給予創(chuàng)作者獎勵,而為了吸粉引流,部分造謠者在AI工具輔助下編造虛假信息進行商業(yè)炒作,為電商平臺產(chǎn)品銷售引流,甚至炮制涉企不實信息,將會嚴重破壞營商環(huán)境。
02
法治網(wǎng)研究院:當(dāng)前,AI謠言的治理難點在哪里?
陳兵:就法律層面而言,AI謠言的治理難點在于責(zé)任主體認定困難。首先,在AI造謠中,造謠者作為直接發(fā)起者,必須承擔(dān)主要法律責(zé)任。
其次,AI工具提供者是否擔(dān)責(zé)需要具體判斷。如果工具提供者未履行合規(guī)義務(wù),例如未在生成內(nèi)容中添加人工智能生成合成內(nèi)容標識、未攔截敏感詞等,就可能因技術(shù)漏洞被追責(zé)。根據(jù)《生成式人工智能服務(wù)管理暫行辦法》《人工智能生成合成內(nèi)容標識辦法》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》等規(guī)定明確要求,AI生成內(nèi)容必須可溯源、可識別,否則提供者需承擔(dān)連帶責(zé)任。
再次,平臺是否擔(dān)責(zé)關(guān)鍵在于是否“明知或應(yīng)知”謠言存在卻未干預(yù)。如果平臺未審核AI生成內(nèi)容,或通過算法推薦擴大謠言傳播,就可能因未盡到“合理注意義務(wù)”承擔(dān)連帶責(zé)任。“技術(shù)中立”不能成為平臺的“免責(zé)金牌”。
需要注意的是,近年來一直熱議的避風(fēng)港原則,即“通知—刪除”原則在AI時代的適用需要相應(yīng)調(diào)整。但是如何調(diào)整,平臺對平臺內(nèi)用戶特別是經(jīng)營者用戶的監(jiān)管義務(wù)和職責(zé)如何確定,還需要進一步明確,平臺的信息過濾義務(wù)的設(shè)定及邊界還需要進一步科學(xué)化、精細化設(shè)計。在這一過程中,一定要注意平衡好創(chuàng)新發(fā)展與安全運行之間的動態(tài)平衡,既要為創(chuàng)新應(yīng)用特別是在應(yīng)用中創(chuàng)新留出空間,也要為各類應(yīng)用劃出紅線和底線,為應(yīng)用場景制定好規(guī)則和規(guī)矩。
時延安:AI謠言問題,本質(zhì)就是AI技術(shù)的濫用問題,就是不法分子利用AI技術(shù)生成虛假信息并加以散布。其治理難點在于:第一,目前不法分子獲取AI技術(shù)的渠道是比較容易的,生成圖片、視頻高度逼真,具有較強的欺騙性,很容易令人誤以為真。
第二,這類信息的散布和其他網(wǎng)絡(luò)謠言一樣,具有快速傳播、輻射面大的特點,一旦形成散布趨勢,就很難從網(wǎng)絡(luò)上清除。
第三,這類信息往往以圖片、視頻為主,且將大量真實影像夾雜其中,客觀上提升了事后澄清真相、恢復(fù)被侵害人聲譽的難度。
張倩:我們在調(diào)研中發(fā)現(xiàn),一個突出治理難點在于AI造謠行為門檻及成本低,行為隱蔽。AI謠言是基于大量訓(xùn)練數(shù)據(jù)的模擬結(jié)果,數(shù)據(jù)源往往難以追溯。目前,面對海量傳播數(shù)據(jù),現(xiàn)有技術(shù)下以被動辟謠為主,信息鑒別難度大,一些時候難以實現(xiàn)對謠言的有效識別和源頭防范。
曾鐵山:AI謠言治理的難點主要有三點:一是技術(shù)層面難以辨認真?zhèn)?。隨著AI技術(shù)的快速迭代發(fā)展,AI深度偽造的文字、圖片、音頻和視頻等擬真程度極高且能互相“印證”,部分內(nèi)容甚至真假參半,極大增加了識別真?zhèn)蔚碾y度。同時,AI謠言多借助匿名賬號、自媒體賬號渠道擴散,缺乏統(tǒng)一的數(shù)字水印或溯源標識,技術(shù)手段難以精準識別和追蹤源頭。
二是澄清和清理成本,遠高于制作和傳播成本。如今許多AI工具簡單易上手,在極短時間內(nèi)即可制作大量難以辨認真?zhèn)蔚闹{言載體,并可借助短視頻或社交平臺快速廣泛傳播,由于目前人工智能對謠言判斷能力尚且不足,從識別、清理到澄清,都需要專業(yè)技術(shù)支持和大量人力和資源去偽,治理成本巨大。
三是法律規(guī)制滯后,懲戒力度不足。目前對于AI謠言的治理,主要依據(jù)我國刑法、民法典以及治安管理處罰法等規(guī)定,且現(xiàn)行法律法規(guī)多基于傳統(tǒng)人工發(fā)布和主觀惡意標準,難以覆蓋自動生成內(nèi)容與多主體協(xié)作傳播的復(fù)雜場景。但面臨AI謠言這種危害性更嚴重、傳播范圍更廣、澄清難度更大、來源更隱蔽的治理時,對“AI造謠”的“定性難”“入罪難”成為法律適用的痛點和難點,例如在面對偽科普AI謠言時,除了采取平臺禁言之外,還需要考慮如何進一步懲戒。
03
法治網(wǎng)研究院:對于精準治理AI謠言,您還有什么建議?
時延安:對AI謠言的治理,第一,要解決AI技術(shù)的濫用問題,對高風(fēng)險AI技術(shù)要給予必要的管控;使用AI技術(shù)生成圖片、視頻等,應(yīng)予以強制標識,無標識發(fā)布虛假內(nèi)容的AI作品,應(yīng)承擔(dān)必要的法律責(zé)任。
第二,網(wǎng)絡(luò)平臺要加強運用AI技術(shù)制作影像的識別工作,在發(fā)布者沒有進行標識的情況下,網(wǎng)絡(luò)平臺應(yīng)予以標識或者責(zé)令發(fā)布者標識。
第三,對于明知是運用AI技術(shù)制作虛假信息而故意大范圍轉(zhuǎn)發(fā)的行為,也應(yīng)予以必要的懲戒,構(gòu)成違法的,應(yīng)當(dāng)追究治安違法責(zé)任。
陳兵:平臺需提升技術(shù)能力,加強內(nèi)容審核。一是提升多模態(tài)AI檢測能力,結(jié)合聲紋、語義、畫面匹配度識別AI賬號內(nèi)容,提高對謠言的識別準確率和效率,降低謠言的傳播權(quán)重;二是建立“AI+人工”分層審核機制,AI 負責(zé)對大量內(nèi)容進行快速檢測和初步判斷,篩選疑似 AI 造謠內(nèi)容的賬號,推送人工復(fù)審。
自媒體需強化合規(guī)底線。自媒體從業(yè)者需增強自身責(zé)任意識,自覺遵守法律法規(guī)和道德規(guī)范,堅持真實、準確、客觀的原則發(fā)布信息,不為了流量和關(guān)注而制造、傳播虛假信息。對于自己發(fā)布的錯誤信息及時更正和澄清,積極主動地進行辟謠,引導(dǎo)公眾正確認知。
用戶要提高識別能力。主動了解AI技術(shù)的應(yīng)用特點,面對疑似謠言,在轉(zhuǎn)發(fā)傳播前核實信息的來源和真實性,避免成為謠言的傳播者。發(fā)現(xiàn)疑似AI謠言或其他虛假信息時,及時向平臺和監(jiān)管部門舉報,為凈化網(wǎng)絡(luò)環(huán)境貢獻自己的力量。
相關(guān)監(jiān)管部門除了進一步完善AI生成內(nèi)容等法律法規(guī)以外,也要同步加強對網(wǎng)絡(luò)平臺和自媒體的常態(tài)化檢測機制,提高對AI謠言的監(jiān)測、識別和處置能力,以技術(shù)監(jiān)管技術(shù)。
曾鐵山:我認為,對于AI謠言治理可以嘗試從以下五個層面進行:一是對AI生成內(nèi)容進行強制標識與溯源管理。落實國家關(guān)于《人工智能生成合成內(nèi)容標識辦法》(2025年9月1日施行)要求,對于AI生成合成內(nèi)容進行顯式和隱式標記,便于公眾識別和監(jiān)管部門溯源。
二是提升AI技術(shù)對謠言的識別與攔截能力。用魔法打敗魔法,用技術(shù)制衡技術(shù)。加強AI對AI謠言特征的模型訓(xùn)練,構(gòu)建謠言知識庫,利用AI鑒別“AI味”,增強自動化識別效率。
三是強化社交媒體和平臺的審核機制。要壓實平臺主體責(zé)任,特別是要求社交平臺、短視頻平臺建立完善的內(nèi)容審核機制、違法信息特征庫及風(fēng)險預(yù)警體系,同時強化對多次發(fā)布虛假信息用戶的限制,落實信息安全主體責(zé)任,建立AI謠言的全鏈條監(jiān)控機制,阻斷謠言傳播鏈條。
四是完善立法,加快出臺對生成式AI內(nèi)容及AI謠言治理的法規(guī)體系。對“AI造謠”的“定性難”“入罪難”的痛點和難點,明確造謠者、傳謠者和平臺等的法律責(zé)任,提高懲戒力度。
五是加強AI謠言公眾警示教育。增強社會對AI謠言的“免疫力”,培養(yǎng)公眾對網(wǎng)絡(luò)來源內(nèi)容查來源、查邏輯、查證據(jù)等思維習(xí)慣,引導(dǎo)新聞媒體、社會公眾積極反對AI謠言。
專家簡介
石磊
最高人民檢察院檢察理論研究所信息部主任
張倩
北京互聯(lián)網(wǎng)法院綜合審判二庭副庭長
陳兵
南開大學(xué)法學(xué)院副院長、中國新一代人工智能發(fā)展戰(zhàn)略研究院特約研究員
時延安
中國人民大學(xué)刑事法律科學(xué)研究中心主任、中國刑法學(xué)研究會副會長
曾鐵山
《法治日報》律師專家?guī)斐蓡T、
華商律師事務(wù)所執(zhí)行主任
選題策劃|法治網(wǎng)研究院
文|沈仲亮
編輯:高弼浡