馬上評|添加顯著標識,防止AI生成內容“魚目混珠”

我們每天上網看到的海量圖文、視頻,有多少是人工智能生成合成的?如何準確分辨AI文章、AI圖片、AI視頻?

9月14日,國家互聯網信息辦公室發佈《人工智能生成合成內容標識辦法(徵求意見稿)》,《徵求意見稿》擬規定,服務提供者提供的生成合成服務,包括文本、音頻、圖片、視頻、虛擬場景等,均應適當位置添加顯著的提示標識;服務提供者提供生成合成內容下載、複製、導出等方式時,應當確保文件中含有滿足要求的顯式標識。

這一規定,非常具有現實針對性、必要性。近年來,人工智能深度合成技術已在多個領域大量應用,從圖文、視頻到在線問答,各種應用更是層出不窮。毫無疑問,AI工具能讓我們的內容生產、知識傳播事半功倍,而且隨着AI的學習能力越來越強,未來其內容“生產”能力甚至會超過人類。

但另一方面,深度合成內容的效果更加逼真、製作更加高效,也讓合成內容達到了“真假難辨”的程度。當真假交融難辨,眼見不再爲實,人工智能技術就像一柄雙刃劍,也會給社會帶來信息失真、認知混亂等問題。

2022年11月,國家網信辦出臺《互聯網信息服務深度合成管理規定》,對深度合成內容的用途、標記、使用範圍以及濫用處罰作出了具體規定。此次《徵求意見稿》進一步明確,不管是文本、音頻、圖片還是視頻,都必須“在適當位置添加顯著的提示標識”。這是對服務提供者的明確要求:只要是AI工具生成的,無論是一篇文章還是一張圖片,都需要添加顯著標識。

這其實也是在提醒受衆,網絡信息魚龍混雜,你看到“內幕”文章、“勁爆”圖片或“震撼”視頻時,首先要注意是不是AI生成的,是不是應該採信,如何去辨別,一定要多加個心眼。

值得注意的是,隨着技術逐步“平民化”,不法分子可輕易利用AI造謠、生產虛假新聞。就在不久前,有媒體起底了一個MCN機構,可以利用AI每天生成4000-7000篇謠言文章,這些文章因爲AI技術的加持,看上去非常“真實合理”,那些不熟悉互聯網技術的受衆,看到此類“有圖有真相”的信息內容,很容易信以爲真。

有媒體調查,使用一個國產AI,一篇AI文章的成本只要0.00138元,1分錢就可以生成7篇文章。如此“無本萬利”,很容易被不法分子利用,“地鐵行兇”“西安突發爆炸”“重慶巫溪一民房發生爆炸事故”等虛假圖片、視頻都曾產生惡劣的社會影響,背後其實就是AI批量製造的謠言。

標識人工智能生成合成內容,從技術上來說並不難實現。有專家就建議,平臺完全可以接入AI內容生成平臺的大模型系統,實時進行數據識別對比,然後附加不可刪除的數字水印,或者“此圖片/視頻爲AI合成”等文字說明。

此次《徵求意見稿》強調,“任何組織和個人不得惡意刪除、篡改、僞造、隱匿本辦法規定的生成合成內容標識”,就是在提醒AI服務提供者和平臺,絕不能因爲享受了AI工具帶來的“流量紅利”,就採取睜一隻眼、閉一隻眼的姑息態度。清朗的網絡空間,絕不能讓AI內容魚目混珠,模糊了真實的邊界;如果有信息被甄別爲謠言,平臺更應該立刻進行標註、清理。

人工智能生成合成的能力超出了傳統的認知,也讓我們意識到:很多網絡文章看上去很“科學”,很多網絡視頻看上去特別“真實”,未必一定就可靠,先別急着相信。不妨先找一找,內容的顯要位置,到底有沒有“此圖片/視頻爲AI合成”的標識?