上海人工智能實驗室主任周伯文:探索AI-45°平衡律,需兼顧安全與性能

7月4日消息,在2024世界人工智能大會全體會議上,上海人工智能實驗室主任、首席科學家,清華大學惠妍講席教授周伯文發表主旨演講,帶來了“探索人工智能45°平衡律”的觀點。

周伯文說,當前,以大模型爲代表的生成式人工智能快速發展,但隨着能力的不斷提升,模型自身及其應用也帶來了一系列潛在風險的顧慮。

從公衆對AI風險的關注程度來看,首先是數據泄露、濫用、隱私及版權相關的內容風險;其次是惡意使用帶來僞造、虛假信息等相關的使用風險;當然也誘發了偏見歧視等倫理相關問題;此外還有人擔心:人工智能是否會對就業結構等社會系統性問題帶來挑戰。在一系列關於人工智能的科幻電影中,甚至出現了AI失控、人類喪失自主權等設定。

這些由AI帶來的風險已初露端倪,但更多的是潛在風險,防範這些風險需要各界共同努力,需要科學社區做出更多貢獻。

周伯文認爲,有這些擔憂的根本原因是目前的AI發展是失衡的。他向大家展示了一張座標圖——橫軸是AI技術能力的提升,呈現指數級增長;縱軸是AI的安全維度,典型的技術如紅隊測試、安全標識、安全護欄與評估測量等,呈現零散化、碎片化,且後置性的特性。

“總體上,我們在AI模型安全能力方面的提升,還遠遠落後於性能的提升,這種失衡導致AI的發展是跛腳的,不均衡的背後是二者投入上的巨大差異。”周伯文指出,“對比一下,從研究是否體系化,以及人才密集度、商業驅動力、算力的投入度等方面來看,安全方面的投入是遠遠落後於AI能力的。”

周伯文說,可信AGI需要能夠兼顧安全與性能,人們需要找到AI安全優先,但又能保證AI性能長期發展的技術體系,“我們把這樣一種技術思想體系叫作‘AI-45°平衡律’。”

周伯文表示,目前,AI安全和性能技術發展主要停留在第一階段,部分在嘗試第二階段,但要真正實現AI的安全與性能平衡,我們必須完善第二階段並勇於攀登第三階段。沿着可信AGI的“因果之梯”拾級而上,“我們相信可以構建真正可信AGI,實現人工智能的安全與卓越性能的完美平衡。”(湯姆)