當(dāng)AI生成內(nèi)容無處不在,我們?nèi)绾慰辞逭嫦?
來源:劉熠/標(biāo)識探索小隊/中南財經(jīng)政法大學(xué)
AI生成的文案、圖片、音頻甚至視頻,如今已頻繁出現(xiàn)在社交平臺、新聞頁面和我們的日常聊天中。技術(shù)在帶來便利與創(chuàng)意的同時,也帶來真假難辨的信息混雜與信任危機。據(jù)中國互聯(lián)網(wǎng)絡(luò)信息中心統(tǒng)計,截至2024年12月,國內(nèi)已有 2.49億人使用過生成式人工智能產(chǎn)品。然而,虛假新聞、網(wǎng)絡(luò)詐騙、“AI換臉”等安全事件也隨之激增。自2025年9月1日起,《人工智能生成合成內(nèi)容標(biāo)識辦法》(以下簡稱《辦法》)正式施行,首次以部門規(guī)章的形式對 AI生成內(nèi)容提出統(tǒng)一的標(biāo)識要求。在這一背景下,我們開展了一項針對AI生成內(nèi)容標(biāo)識落地的調(diào)研,嘗試從責(zé)任分配標(biāo)識分級與平臺管理三個維度,探討如何構(gòu)建更加清晰、可行的治理機制。
責(zé)任誰來負(fù)?從“控制能力”和“收益程度”入手
《辦法》雖然提出“誰提供誰負(fù)責(zé)”,但現(xiàn)實中AI內(nèi)容生成鏈條復(fù)雜,技術(shù)提供者、服務(wù)提供者以及傳播者往往分離,法律責(zé)任應(yīng)如何具體劃分?
調(diào)研發(fā)現(xiàn),單純按主體類型劃分責(zé)任并不合理更應(yīng)依據(jù)實際“控制能力”與“收益程度”進行判斷。例如,某些AI繪畫小程序不僅提供生成服務(wù),還能對輸出結(jié)果進行篩選和編輯--這類服務(wù)提供者由于對內(nèi)容具有較強控制力且直接面向用戶收費,應(yīng)當(dāng)承擔(dān)主要標(biāo)識責(zé)任。相反,若技術(shù)提供者僅提供標(biāo)準(zhǔn)化 API接口、未參與具體內(nèi)容生成,則責(zé)任應(yīng)相對有限。這一思路也呼應(yīng)了法學(xué)中的“紅旗原則”:即當(dāng)侵權(quán)或造假內(nèi)容已顯而易見如“紅旗”,任何相關(guān)主體均不應(yīng)回避自身責(zé)任。
如何科學(xué)標(biāo)識?建立分級體系,告別“一刀切”
是不是所有 AI生成內(nèi)容都該打上同一標(biāo)簽?答案是否定的。AI寫的一首詩和一條仿冒名人聲紋的詐騙語音,風(fēng)險完全不同,標(biāo)識也理應(yīng)釋飭訐擠籮贐綣所差異。
充分調(diào)研后,我們提出了“一基雙規(guī)”的判定框架,作為落實《辦法》中“防止公眾混淆或誤認(rèn)”的具體路徑:“一基”指以“使用深度合成技術(shù)”作為判斷前提;而“雙規(guī)”則包括“內(nèi)容敏感性”和“人機貢獻比例”;诖,我們可以將AI生成內(nèi)容劃分為多個風(fēng)險等級。例如換臉視頻、仿冒音頻這類涉及個人生物特征的內(nèi)容屬于“最高敏感級”,必須強制顯性標(biāo)識;而文學(xué)創(chuàng)作和藝術(shù)設(shè)計等低風(fēng)險內(nèi)容可采用隱性標(biāo)識或不標(biāo)識。
其中,特別值得關(guān)注的是“人機協(xié)作”這類模糊地帶。比如一篇文章中AI貢獻超過70%,就應(yīng)標(biāo)明“AI生成為主,人類輔助”;如果AI參與度約50%,可標(biāo)識為“人機協(xié)作創(chuàng)作”;至于僅使用 AI進行潤色或修改(參與度30%以下)則可采用隱性標(biāo)識或部分豁免。這一精細(xì)化的分類方式,既呼應(yīng)了法律中的“比例原則”,也體現(xiàn)了治理手段與風(fēng)險水平相適應(yīng)的理念
平臺不能缺席:“權(quán)責(zé)一致”實現(xiàn)治理閉環(huán)
《辦法》另一重要突破,是將傳播平臺明確列為“把關(guān)人”,要求其承擔(dān)標(biāo)識審核與提示義務(wù),從而填補了以往“重生成、輕傳播”的監(jiān)管空白。
根據(jù)我們的調(diào)研發(fā)現(xiàn),目前各大平臺已形成不同的管理風(fēng)格。例如抖音采用“水印+元數(shù)據(jù)”雙重標(biāo)識,未標(biāo)識的內(nèi)容會由平臺補充“疑似 AI生成”的提示;微博則依靠算法識別加用戶投訴的雙通道機制,還專門設(shè)立了“未添加AI標(biāo)識”投訴分類;而B站、知乎等平臺更傾向于社區(qū)自治,鼓勵Up主和答主主動聲明 AI使用情況。這些多元化的實踐無一例外地體現(xiàn)出“權(quán)責(zé)一致”的內(nèi)在邏輯:平臺既然享有內(nèi)容傳播帶來的流量與收益,就必須承擔(dān)相應(yīng)的管理責(zé)任。理想的治理模式應(yīng)當(dāng)結(jié)合技術(shù)檢測、人工審核和堎部行戶監(jiān)督,構(gòu)建多方參與的管理閉環(huán)。
結(jié)語:以標(biāo)識為起點,走向更負(fù)責(zé)的AI時代
標(biāo)識不只是技術(shù)動作,更是責(zé)任宣言。只有當(dāng)每段AI內(nèi)容自帶說明書,我們才能更安心的擁抱智能時代的便利和精彩!掇k法》的出臺為 A1生成內(nèi)容治理奠定了制度基礎(chǔ),而真正落地仍面臨責(zé)任如何厘清、標(biāo)識如何分級、平臺如何履職等一系列現(xiàn)實問題。技術(shù)的未來離不開規(guī)則的守護。只有當(dāng)每一段AI生成內(nèi)容都帶有真實、清晰的“說明書”,我們才能在擁抱智能時代的同時,不致迷失于虛擬和真實之間。
社會實踐報告推薦