中科院說明「深僞技術」 反制認知作戰
中科院昨日說明「深僞(Deepfake)技術簡介及國防應用樣態」,並強調透過深僞技術,可生成極爲逼真的文字、語音、圖片和影片等造假內容,亦可用在敵對國家間的認知作戰。因此,國人應建立正確認知,慎防「深僞」的錯假訊息,確保國家安全。(圖:AI生成)
中科院資通所黃益進督導長針對深僞技術(Deepfake)進行說明。(軍聞社記者周升煒攝)
中科院昨日說明「深僞(Deepfake)技術簡介及國防應用樣態」,分析深僞技術主要透過文字、語音、圖片及影片等形式出現,且經常運用於資訊作戰,以達成認知作戰目的;並強調該院已具備相關研發能量,可提供國軍相關技術協助。
國防部昨日舉行例行記者會,說明「深僞(Deepfake)技術簡介及國防應用樣態」。中科院資通所督導長黃益進就文字、語音、圖片和影片等4個面向的深僞技術進行介紹,並分析深僞技術應用於「網路釣魚攻擊」、「僞造影片」、「僞造衛星圖片」、「製作爭議訊息」等關於國防的應用樣態。
黃益進表示,人工智慧(AI)近年帶來許多創新運用與便利體驗,但同時衍生挑戰和風險,其中深僞技術最值得關注,用於生成逼真的文字、語音、圖片和影片等僞造產物;可用於製作極爲逼真造假內容,進一步由網路迅速散播假訊息,亦可用在敵對國家間的認知作戰。
深僞技術在國防應用樣態部分,黃益進進一步表示,認知作戰可僞造以假亂真的錯誤情資,並將其廣泛散佈,使目標對象在資訊不對稱情況下,信以爲真,產生內部矛盾,甚至瓦解戰鬥意志。其中,深僞技術經常運用於資訊作戰,以達成認知作戰目的,並說明該技術結合網路釣魚郵件,亦可運用於盜取特定人物之重要個資及機密資訊;他並強調中科院已有相關研發能量,可提供國軍相關技術協助,反制認知作戰。
黃益進指出,依據臺灣事實查覈中心報告,2022年3月16日,駭客將烏克蘭總統澤倫斯基投降演說的深僞影片,發佈至數個烏克蘭的新聞網站,試圖侵擾軍心。另外,也利用深僞技術加工衛星圖片,產生不存在的建築或地形,在網路上散播,藉以欺騙、混淆偵察工作,並製造爭議訊息,增加對立與仇恨情緒。提醒國人在面對可疑訊息時,應秉持不輕信、不傳播、要查證、要澄清原則,降低受騙及誤判情勢風險。
國防部發言人孫立方少將進一步指出,依據過往經驗,漢光演習期間產生假訊息較多,但經過國內各部會努力,目前假訊息傳散率對民衆影響力已衰退,因此無論是AI或深僞技術,國軍都會主動掌握輿論、議題方向的主控權,並於傳散前截斷。