資安是發展AI基石 黃彥男:年底前公佈AI風險分級框架
GDDA全球數位產業聯盟協進會與國際通商法律事務所(Baker McKenzie)共同舉辦 「2024 GDDA / Baker McKenzie國際AI資安論壇」,邀請專家學者共同探討企業及公部門在引入AI時應注意的資訊安全風險管理,以及應對資安危機時的解決機制。
黃彥男會中以「邁向智慧政府,保障國家資安」爲題發表專題演講,他引述工研院產科國際所資料,指2030年AI將爲世界經濟貢獻15.7兆美元,且有97%企業肯定ChatGPT爲企業帶來好處;生成式AI能協助使用者處理文字與影音、生成影音、生成及擴增資料、設計流程與規格,甚至可以進行程式設計,正重塑各產業的樣貌。
不過,黃彥男提醒,伴隨生成式AI應用,可能有各種風險及影響,包括帶來虛假訊息、侵犯智慧財產權、資訊安全、內容違反法律規範或倫理道德,甚至可能操弄輿論、影響國家安全等,其中,prompt injection(提示詞注入)攻擊成爲最大威脅,三星去年發生3起使用 ChatGPT導致數據泄露的事件,有員工透過該平臺修復專有程式原始程式碼,無意間將最高機密泄露給其他公司的AI,便是一例。
除此之外,黃彥男指出,AI也讓駭客的網路攻擊更動態、速度更快且有效,進而大幅增強威脅形勢,因爲AI可協助駭客加速攻擊偵察,甚至使用AI來執行數百種可能的攻擊情境,並使用AI來利用弱點,在遭到阻擋時,可在幾毫秒內轉向新的攻擊途徑。
黃彥男強調,發展AI時需要資安,而在資安上也可以利用AI研究新興攻擊態樣,比傳統的方法更快判斷風的優先次序,進而更快、更有效率地迴應資安威脅,兩者是沒辦法分開的。他說,目前國科會已預告制定「AI基本法」草案,當中強調「隱私保護」與「人權」,數發部將據此推動「人工智慧風險分級框架」,各目的事業主管機關得循前項風險分級框架,訂定其主管業務的風險分級規範。
黃彥男並透過簡報指出,藉由制定AI應用的標準和規範,提升其可信度與安全性,可讓臺灣在國際市場上更好地展示技術創新能力,增加國際競爭力,此外,在確保AI技術快速發展同時,也要保障勞工權益,促進社會穩定與發展。
另針對產業關注如何培育AI跨域人才,黃彥男透過簡報表示,可建構人才循環學習實作環境,以及國內外大廠資源共創協作新思維,透過帶案人場,打造專屬AI解決方案且落地實證,必須「整合人才用AI,產業應用導AI,開發人才寫AI」。他認爲,現在很多產業都已經參與,這是臺灣的機會。