【專家觀點】張鈸院士:做負責任的人工智能

來源:高校人工智能與大數據創新聯盟

張鈸

中國科學院院士、清華大學人工智能研究院名譽院長、人工智能國際治理研究院學術委員會委員、我國人工智能奠基人

2022年11月10日下午,世界互聯網大會烏鎮峰會“人工智能與數字倫理分論壇”召開,清華大學人工智能研究院名譽院長張鈸院士線上發表演講。

張鈸院士演講原文:

女士們先生們,大家好!

我今天講的主題是:《做負責任的人工智能》。

最早提出機器人發展中可能存在倫理風險的是,美國科幻小說家阿西莫夫在他的小說“環舞”(Runaround)中提出的,時間是1942年,早在人工智能誕生之前,爲此他還提出規避風險的方法,即大家熟知的“機器人三定律”,應該說這些問題的提出具有前瞻性。後來物理學家霍金等也不斷地提出類似的警告,但這些警告並沒有引起大家特別是人工智能界的重視。

原因在於他們的立論依據不夠充分,他們認爲機器的不斷進步和發展,有朝一日當它的智力超過人類,特別是機器具有主觀意識時,即出現所謂的“超級智能”時,人類將會失去對機器的控制,從而帶來災難性的後果。這種“技術邏輯”對於大多數人工智能研究者來講並不具有說服力。因爲大家清楚地知道,人工智能研究工作目前還處於探索的階段,進展緩慢、還受到很多問題的困擾,難以解決,製造“超人類”的機器人談何容易。而且能不能通過所謂“通用人工智能”達到“超智能”的目標,也一直存在着爭議。因此我們認爲這些風險只不過是未來的“遠慮”而已,不急於考慮。

可是,當本世紀初基於大數據的深度學習在人工智能中崛起之後,人們的認識有了很大的變化,深切地感到人工智能的倫理風險就在眼前,治理迫在眉睫!這是爲什麼?大家知道,本世紀初基於大數據的深度學習被廣泛地應用於各個領域,用來完成決策、預測和推薦等任務,給人類社會帶來很大的影響。但是,人們很快發現基於大數據的深度學習算法具有不透明、不可控和不可靠等缺陷,導致AI技術很容易被無意誤用,可能給人類社會帶來嚴重的後果。

大家知道,根據目前人工智能的技術,我們可以通過生成式神經網絡根據使用者的要求生成符合要求且質量良好的文本和圖像。但同樣的神經網絡也可以違背用戶的要求生成充滿(種族、性別等)偏見、不公正和錯誤百出的文本與圖像,完全不受使用者的控制。可以設想,如果根據這些生成的錯誤文本做決策或預測,就可能帶來破壞公平性與公正性的嚴重後果。

我們原以爲,只有當機器人的智能接近或超過人類之後,我們纔會失去對它的控制。沒有想到的是,在機器的智能還是如此低下的時候,我們已經失去對它的控制,時間居然來得這麼快,這是擺在我們面前很嚴峻的現實。

阿西莫夫在《機器人三定律》中曾提經出規避倫理危機的方案,內容是“一,機器人不得傷害人類,或因不作爲而讓人類受到傷害;二,機器人必須服從人類的命令,除非這些命令與第一定律相沖突;三,機器人必須保護自己的存在,只要這種保護不違反第一或第二定律”。總之一句話,人類應該牢牢把握機器的控制權。讓機器做人類的奴隸!這種辦法能否解決機器的倫理危機?答案顯然是否定的!

實際上,讓“機器完全聽從人類的指揮”,在早期“無智能”的機器中我們就是這樣做的。但是如果我們想讓機器向智能化的方向發展,就不能讓機器完全聽候人類的“擺佈”,需要賦予它一定的自由度和主動權。生成式神經網絡就是根據這個原理,利用“概率”這一數學工具,使機器能夠生成豐富多樣的文本和圖像。但也因爲這個原因,就一定存在生成不合格和有害文本與圖像的概率(可能性)。這是我們在賦予機器智能的時候所必須付出的代價,難以避免。

那麼我們有沒有可能通過給機器規定嚴格的倫理準則來限制它的錯誤行爲?實際上,這也很困難!不僅因爲“倫理”的準則很難準確描述,但即便可以定義,也很難執行。舉一個簡單的例子,比如自動駕駛車(或無人車)行駛在普通的馬路上,如果我們規定自動駕駛車必須嚴格遵守交通規則,這個“準則”應該是很明確的。但如果路上同時還有“有意或無意違反交通規則”的有人車和行人,自動駕駛車則無法行駛去完成自身的任務。比如,自動駕駛車需要向左併線以便左拐,由於左路車道上的車輛之間沒有保持規定的車距,自動駕駛車就無法實現向左併線。這恰恰說明,自動駕駛車一方面要嚴格遵守交通規則,另一方面要完成達到目的地的任務,在不確定的交通環境下,這兩項目標是難以兼顧的。可見,人工智能的發展必然帶來對倫理和傳統規範的衝擊。

深度學習算法的不安全、不可信與不魯棒,同時給有意的濫用帶來機會。人們可以惡意利用算法的脆弱性(不魯棒)對算法進行攻擊,導致基於該算法的人工智能系統失效,甚至做出相反的破壞行爲。深度學習還可以用來造假-即所謂“深度造假”,通過AI的“深度造假”,可以製造出大量逼真的假新聞(假視頻)、假演說(假音頻)等,擾亂社會的秩序、誣陷無辜的人。

人工智能無論是被有意的濫用還是被無意的誤用都需要治理,不過對這兩者的治理性質上完全不同。前者要靠法律的約束和社會輿論的監督,是帶有強制性的治理。後一種則不同,需要通過制定相應的評估標準和規則,對人工智能的研究、開發和使用過程進行嚴格的科學評估和全程監管,以及問題出現之後可能採取的補救措施等,幫助大家避免AI被誤用。

從根本上來講,人工智能的研究、開發與應用都需要以人爲本,從公正、公平的倫理原則出發,做負責任的人工智能。爲此,我們需要努力去建立可解釋、魯棒的人工智能理論,在此基礎上,才能開發出安全、可信、可控、可靠和可擴展的人工智能技術,最終推動人工智能的公平、公正和有益於全人類的應用和產業發展。這就是我們提倡的發展第三代人工智能的思路。

人工智能研究和治理都需要全世界不同領域人員的參與與合作,除從事人工智能的研發和使用人員之外,還需要法律、道德、倫理等不同領域人員的參與。我們需要明晰倫理、道德的標準,什麼是符合“道德”和“倫理”的,不同的國家、民族、團體和個人都有不盡相同的認識,因此需要全球範圍的合作,共同制定出一套符合全人類利益的標準。人類是命運的共同體,我們相信通過共同的努力,一定會找到符合人類共同利益的標準。只有人工智能的研究、開發和使用人員,人人都遵守共同制定的原則,才能讓人工智能健康地發展並造福於全人類。

謝謝!

本文來源: 清華大學人工智能國際治理研究院

AI聯盟

全國高校人工智能與大數據創新聯盟

版權聲明:轉載文章和圖片均來自公開網絡,推送文章除非無法確認,我們都會註明作者和來源。如果出處有誤或侵犯到原作者權益,請與我們聯繫刪除或授權事宜

往期精彩文章(單擊就可查看):

1.

2.

3.

4.

5.

6.

7.

8.

9.

10. 高職大數據專業排行榜 2022全國882所高職高專院校大數據技術(與應用)專業教育教學綜合實力一覽表

11.

12.

13. 辦

14.

15.

16.

17.

18.

19.

20.

21.

22.

23.

24.

25.

26.

27.