當“萬物皆可溯”,一個更好的網絡世界已經預見。
9月1日,國家互聯網信息辦公室、工業和信息化部、公安部、國家廣播電視總局聯合發布的《人工智能生成合成內容標識辦法》(以下簡稱《辦法》)正式施行。這部“AI內容治理里程碑”的法規,以“顯式+隱式”雙標識體系為核心,直擊AI生成內容“真假難辨”的核心痛點,構建起覆蓋生成、傳播、追溯全鏈條的監管框架。
《辦法》提出的“顯式標識”與“隱式標識”并行機制,給AI作品上了兩把鎖。顯式標識要求在文本起始處添加文字提示、在圖片角落嵌入角標、在視頻播放界面設置動態水印,確保用戶肉眼可見;隱式標識則通過文件元數據植入數字水印、服務商編碼等技術手段,實現機器可讀、不可篡改。這種“明暗結合”的標識方式,既保障了公眾知情權,又為執法部門提供了追蹤溯源的技術抓手。
以近期引發熱議的“AI圖片詐騙電商退款”事件為例,不法分子利用20秒生成的虛假商品破損圖,成功騙取75%的退款申請。《辦法》施行后,未來,電商平臺可通過核驗文件元數據中的隱式標識,快速識別AI生成內容,阻斷詐騙鏈條。《辦法》中的重點內容之一是:明確平臺責任,阻斷虛假信息傳播鏈。這無疑對網絡信息服務提供者提出了更高層次的審核要求。
傳統媒體時代,大眾傳播媒體掌握甚至壟斷著信息的把關權。互聯網時代,媒體的把關權不斷被分化,“人人都是傳播者”一定程度上實現了信息傳播的平權化,但也由此加劇了信息真偽難辨的問題。
基于此,《辦法》的實施將構建起從“生成端”到“傳播端”的閉環治理,形成覆蓋AI內容全生命周期的監管網絡。從生成端看,《辦法》明確要求在內容生成時即添加標識,確保內容可追溯;對傳播端加強審核,如平臺需對未標識內容添加風險提示。這種閉環治理模式,有效解決了“AI內容泛濫卻無法追責”的困境。
《辦法》在強化監管的同時,也充分考量技術發展需求以及創作自由。針對部分原創內容被誤判為AI生成的問題,《辦法》引入分級處理制度:對通過隱式標識確認的AI生成內容,平臺需采取更嚴格措施,如下架或限制傳播。同時給予疑似內容復核的機會:對標識為“疑似生成”的內容,平臺需提供便捷的用戶反饋渠道,允許創作者提交證據申請復核。既避免誤判打擊創作積極性,又為平臺提供靈活管理空間。
盡管《辦法》的實施在人工智能生成領域邁出了關鍵一步,但互聯網AI治理仍面臨諸多挑戰。尤其在藝術創作、新聞報道等領域,難免出現倫理邊界模糊等問題,AI生成內容的合理使用邊界也亟待明確。但必須肯定的是,《辦法》的施行正在重塑AI產業競爭格局,也在為傳統產業賦能。
如在醫療領域,AI生成的影像報告需添加顯式標識,既保障患者知情權,又為遠程診療提供合規依據;在教育領域,智能批改系統通過標識體系區分人機協作成果,維護學術誠信。于企業而言,強制標識要求倒逼企業優化訓練數據管理。
當每一張AI圖片、每一段AI視頻都帶有清晰的“數字身份證”,當每一次內容傳播都留下可追溯的技術軌跡,我們不僅在守護信息時代的真實與安全,更在為人工智能的可持續發展奠定基石,而這一切,都在動態向好中。