歐盟AI法案公佈!下月生效 分階段實施
歐盟人工智能法案(EU AI Act)的最終文本日前已在歐盟的《官方公報》上發佈。這部歐盟針對人工智能應用的風險管理法規將在20天后的8月1日生效,而到24個月後的2026年中期,其條款將全面適用於AI開發者。不過,該法案採用分階段實施的方法,這意味着不同規定的生效時間將有所不同。
歐盟立法者在去年12月達成了關於歐盟首部全面AI規則的政治協議,該框架根據使用案例和感知風險對AI開發者提出不同的義務。其中,大多數AI用途被視爲低風險,因此不受監管,但一些潛在的AI使用案例在法律下是被禁止的。
而所謂的“高風險”使用案例中,AI在生物識別、執法、就業、教育和關鍵基礎設施中的使用是法律允許的,但開發這些應用的公司在數據質量和反偏見等方面必須承擔相應義務。同時,“高風險”等級還對類似AI聊天機器人開發商提出了一些較輕的透明度要求。
監管規定對於通用目的AI(General Purpose AI,GPAI)模型製造商,如ChatGPT,也有一些透明度要求。最強大的GPAI模型,通常基於計算閾值,可以被要求進行系統風險評估。此前,有些AI行業的某些元素在少數成員國政府的支持下進行大規模遊說,試圖減輕GPAI的義務,擔心這部法律可能阻礙歐洲培養本土AI巨頭以與美國和中國的競爭對手競爭的能力。
根據分階段實施的計劃,首先,禁止使用AI的領域將在法規生效六個月後適用,即2025年初,其中包括社會信用評分、通過不定向抓取互聯網或閉路電視來編制面部識別數據庫等;除非有幾個例外情況可以使用,如在尋找失蹤或被綁架人員時,執法部門可以在公共場所使用實時遠程生物識別技術。
接下來,法規生效九個月後,即2025年4月左右,適用監管範圍內AI應用的開發者將必須遵守監管規定的行爲準則。歐盟設立的AI辦公室是該法規建立的監督機構,負責提供這些行爲準則。
不過,實際上誰來編寫這些規定仍然引發了問題。根據本月早些時候媒體報道,歐盟一直在尋找諮詢公司來起草這些行爲準則,這引發了民間社會的擔憂,認爲AI行業的參與者可能對規則制定施加影響。最近,有媒體報道稱,在歐洲議會議員的壓力下,歐盟AI辦公室將發佈徵求意向書,以選擇利益相關者起草GPAI模型的行爲準則,以使該過程更具包容性。
另一個關鍵的最後期限是在法律生效12個月後,即2025年8月1日,GPAI開發者必須開始遵守透明度要求的規定。而某些高風險AI系統獲得了最寬鬆的合規最後期限,監管規定給予了36個月的時間,即到2027年,可以開始旅行履行義務。