人工智能安全時鐘:能否成爲我們的救命稻草?
如果不受控制的通用人工智能——或者說“如神一般的”人工智能——已近在眼前,那我們目前大概已行進至半程。
這就是爲什麼我上個月推出了人工智能安全時鐘。我的目標很簡單:我想明確表明不受控制的通用人工智能的危險是真實存在的。時鐘當前的讀數——距離午夜還有 29 分鐘——衡量出了我們距離不受控制的通用人工智能可能引發生存風險的關鍵轉折點究竟有多近。雖然還沒有發生災難性的危害,但人工智能發展的驚人速度和監管的複雜性意味着所有利益相關者都必須保持警惕和參與。
這不是危言聳聽;它是基於硬數據的。人工智能安全時鐘跟蹤三個關鍵因素:人工智能技術日益複雜、自主性不斷增強以及與物理系統的整合。
我們在這三個因素方面都看到了顯著的進展。最大的進展出現在機器學習和神經網絡方面,如今人工智能在圖像和語音識別等特定領域的表現優於人類,精通複雜的遊戲 比如圍棋,甚至通過了諸如 商學院考試和 亞馬遜編程面試之類的測試。
儘管取得了這些進展,但正如斯坦福以人爲中心的人工智能研究所指出的那樣,當今大多數人工智能系統仍然依賴於人類的指導。它們被構建來執行定義狹窄的任務,由我們提供的數據和指令引導。
話雖這麼說,一些人工智能系統已經呈現出有限獨立的跡象。自動駕駛汽車對導航和安全做出實時決策,而像 YouTube 和亞馬遜等平臺上的推薦算法在沒有人類干預的情形下推薦內容和產品。但我們尚未達到完全自主的程度——仍然存在重大障礙,從確保安全和道德監督到處理人工智能系統在非結構化環境中的不可預測性。
目前,人工智能在很大程度上仍處於人類控制之下。它還尚未完全融入維繫我們世界運轉的關鍵系統——能源網、金融市場或軍事武器——以讓其能夠自主運行。但別搞錯了,我們正朝着這個方向前進。人工智能驅動的技術已經取得了進步,特別是在軍事領域,如自主無人機,以及在民用領域,人工智能有助於優化能源消耗和協助金融交易。
一旦人工智能接入更多關鍵基礎設施,風險就會成倍增加。想象一下,人工智能決定切斷一個城市的電力供應、操控金融市場或者部署軍事武器——所有這些都沒有任何或有限的人類監督。這是一個我們不能讓它成爲現實的未來。
但我們不應該只害怕那些如同世界末日般的場景。
人工智能能力的陰暗面已初露端倪。
由人工智能驅動的錯誤信息運動正在扭曲公共話語,破壞民主制度的穩定。
一個聲名狼藉的例子是 2016 年的美國總統大選,其間,俄羅斯的互聯網研究機構藉助社交媒體平臺上的自動機器人傳播具有分裂性和誤導性的內容。
深度僞造也正成爲一個嚴峻的問題。
2022 年,我們見到了一個令人膽寒的例子,當時出現了一段烏克蘭總統弗拉基米爾·澤連斯基的深度僞造視頻,錯誤地將他描繪成在俄羅斯入侵期間呼籲投降。
其目的十分明確:削弱士氣,製造混亂。
這些威脅並非停留在理論層面——它們正在當下發生,如果我們不採取行動,它們只會變得越發複雜,更難以阻止。
雖然人工智能發展速度如閃電一般,但監管卻滯後了。
在美國尤其如此,在那裡,實施人工智能安全法的努力充其量是分散的。
監管往往交由各州負責,致使法律拼湊而成,效果參差不齊。
沒有一個統一的國家框架來對人工智能的開發和部署進行管理。
加州州長加文·紐瑟姆(Gavin Newsom)最近否決了一項人工智能安全法案,因擔心這會阻礙創新並將科技公司推向其他地方,這僅僅凸顯了政策的滯後程度。
我們需要一種協調統一的全球人工智能監管方式——一個類似於監管核技術的國際原子能機構的國際機構來監督通用人工智能的發展。哪怕有一個國家在沒有適當保障措施的情況下開發通用人工智能,其後果可能會蔓延至全球。我們不能讓監管漏洞致使整個地球面臨災難性風險。這就是國際合作變得至關重要的地方。如果沒有設定明確界限、確保人工智能安全發展的全球協議,我們就有可能陷入一場通往災難的軍備競賽。
與此同時,我們不能對谷歌、微軟和 OpenAI 等公司的責任視而不見——這些公司處於人工智能發展的前沿。人們越來越擔心,在激烈競爭和商業壓力的驅使下,人工智能領域的主導權之爭可能會掩蓋長期風險。OpenAI 最近因轉向盈利模式而登上頭條新聞。
人工智能先驅傑弗裡·辛頓對谷歌和微軟之間競爭的警告很明確:“我認爲在他們弄清楚是否能夠控制之前,不應該進一步擴大規模。”
部分解決方案在於爲人工智能系統構建故障保險機制——“終止開關”或後門,一旦人工智能系統開始出現不可預測的行爲,人類便可進行干預。加利福尼亞的人工智能安全法包含了此類保障措施的規定。這種機制需要從一開始就內置到人工智能中,而不是事後添加。
不可否認,風險確實存在。我們正處於可能要與能匹敵甚至超越人類智能的機器共享我們這個星球的邊緣——不管這種情況是在一年還是十年內發生。但我們並非無能爲力。引導人工智能朝着正確方向發展的機會仍牢牢掌握在我們手中。我們能夠確保迎來一個人工智能成爲有益力量的未來。
但時間緊迫。