清華大學蘇世民書院院長薛瀾:裝好剎車不等於人工智能能夠安全上路
今年以來,人工智能產業熱度正在持續擴散,由此引發的倫理、監管等風險也越發凸顯。在人工智能進入爆發式發展的關鍵階段,我國應當如何統籌發展與安全,支持人工智能產業快速發展的同時裝好“剎車”?4月26日,清華大學蘇世民書院院長、公共管理學院學術委員會主任薛瀾在2024中關村論壇年會現場接受證券時報記者採訪時,就人工智能技術的風險與前景展開交流。
薛瀾告訴記者,任何科技自誕生以來都面臨方向性問題,“用得好科技就好”。所以爲人工智能技術安上“剎車”,實際是建立一個合理的治理體系,一個針對人工智能技術的風險治理體系,對濫用、惡用人工智能技術等所有潛在風險進行管理。
薛瀾指出,我國針對人工智能安排的風險治理體系可以分爲上、中、下層。上層就是國家新一代人工智能治理專業委員會在2019年發佈的《新一代人工智能治理原則——發展負責任的人工智能》和2021年發佈的《新一代人工智能倫理規範》,不論是技術開發商、技術應用商還是社會公民都應當遵守的一些基礎原則。中層就是針對人工智能具體領域的具體法律法規,比如2023年發佈的《生成式人工智能服務管理暫行辦法》等。下層就是鼓勵企業加強內部機制建設,成立倫理委員會等。“通過綜合性體系,保證人工智能上路是有剎車的。”
他同時指出,安裝好剎車,出臺各項法律法規,並非意味着人工智能至此能夠安全上路。在鼓勵、希望企業能夠加強自身建設的同時,也需要全社會的共同監督,來發現並及時舉報企業濫用人工智能的情況,並通過相關部門對相關企業進行處罰。
在推動人工智能技術應用過程中,各個國家對技術應用的認可程度不一。薛瀾認爲,各地區的應用場景差別巨大,未來人工智能技術的應用推廣在於根據不同地區的特定場景,爲民衆提供更多的選擇。他表示,今後人工智能技術就像一個操作系統,將嵌入到各種工作平臺裡。“你可能都感覺不到它的存在,但是你在工作中會更加方便。”
面對人工智能技術普及對就業的衝擊,薛瀾相信,隨着物質文化生活不斷豐富,人類會產生更多新的需求,這些需求就成爲新的就業源泉。