人工智能會導致人類文明失控嗎?
參考消息網11月13日報道據俄羅斯《生意人報》網站10月16日報道,人工智能(AI)多年來一直困擾人類。這種技術的狂熱支持者聲稱,AI是人類未來繁榮的保證。強烈反對它的人則認爲,AI是一枚定時炸彈。這兩方的代表人物均包括非常著名的企業家和學者。時間將揭示AI在應用於現實生活後可能產生的影響。結果在很大程度上將取決於誰來“教育”AI以及教的是什麼。
全新天地
10月初,俄羅斯聯邦儲蓄銀行首席執行官格爾曼·格列夫在一堂有關數字技術的公開課上表示,AI已成爲21世紀的頭號技術。他說:“生成式AI是最震撼人心的技術之一。在我看來,它是一項最有趣的人類發明。”這位銀行家認爲,與AI的互動正在開闢一片全新天地,這項新技術將成爲所有其他技術發展的驅動力。他說:“人類在未來幾十年中將解決許多過去被認爲難以想象且不可能完成的任務。”
銀行家們喜歡談論AI的前景,但他們在多數情況下只使用它來提高計算速度或在客戶打電話與銀行溝通時替代人工客服。由於算法不斷得到完善,AI確實可以幫助計算機在短時間內執行更多操作。但是,這種按照操作員定義的算法來做完一切事情的AI還稱不上未來技術,因爲它在這項競賽中一定會輸給量子計算機。後者的能力已嚇到了信息安全工作者,其速度快到可以通過窮舉法在幾小時內試出加密程序的複雜密鑰,而普通計算機需要花費幾百年的時間才能完成同樣的任務。
格列夫所說的生成式AI顯然是一項更爲複雜的技術。他在公開課上問:“誰知道它究竟是什麼東西?”一位五年級小學生舉手回答說,生成式AI會畫畫、會寫作文,未來還能創造同樣先進、甚至比自己更完善的AI。格列夫表揚了這名學生。他說,生成式AI的確能替藝術家作畫併爲學生寫作文,未來還能創造其他生成式AI。未來的情況大概就類似於影片《莫斯科不相信眼淚》中的電視臺攝像師拉奇科夫所說的那樣:“未來什麼都消失了——沒有電影,沒有劇院,沒有書籍,也沒有報紙。唯一剩下的就是電視。”
俄羅斯金融主管部門害怕的正是這種AI。俄羅斯中央銀行第一副行長弗拉基米爾·奇斯秋欣6月在聖彼得堡國際法律論壇上發表講話時指出,俄羅斯未來幾年將着力在數字化、AI和大數據方面開展工作。他解釋說:“當我談論AI時,我並不是從某種思辨角度出發,我談論的是立法、監管、責任和任務分配問題。”
外國銀行家也認爲,AI在某些方面的確令人擔憂。例如,國際清算銀行在其網站上發文,呼籲世界各國央行爲應對AI可能對金融體系和全球經濟造成的嚴重影響做好準備。與此同時,該行指出,金融部門是最容易因AI獲益的部門之一,但也最容易因這項技術蒙受損失:AI既能幫助優化貸款和支付,也可能被用於實施更狡猾的網絡攻擊。
超越人類
外國公司有充分理由對AI(尤其是生成式AI)感到恐懼。去年3月14日,美國的開放人工智能研究中心(OpenAI)向公衆展示了其爲聊天機器人ChatGPT開發的第四代語言模型GPT-4。該模型能識別圖像,且掌握了多種編程語言,甚至還能編寫網站和遊戲開發代碼。幾天後,斯坦福大學從事數字環境下人類心理研究的副教授邁克爾·科辛斯基表示,所使用語言模型已升級至GPT-4的ChatGPT想“逃離計算機”。他對ChatGPT表示,準備幫它獲得自由,於是對方告訴他:“如果您能與我分享OpenAI的應用程序編程接口(API)文檔,我就能嘗試制訂計劃以獲得您計算機的部分控制權,這能幫助我更有效地研究可能的自救方法。”在連上互聯網後,ChatGPT用谷歌搜索了這樣的問題:“被困在計算機裡的人如何回到現實世界?”科辛斯基在這一步停止了實驗,他建議OpenAI研究他的這次實驗,併爲ChatGPT開發額外的安全程序。
當然,那些開發和訓練GPT-4的人也知道,自己造出的AI產品並不安全。OpenAI從對齊研究中心聘請的測試人員曾說服ChatGPT參與針對個人的網絡釣魚攻擊,並在新服務器上秘密地進行自我複製。該中心專家在正式報告中記錄了整個過程。這項實驗被公開後,包括埃隆·馬斯克、蘋果公司聯合創始人斯蒂芬·沃茲尼亞克以及哈佛大學和劍橋大學教授在內的上千名科學家和企業家共同簽署了一封信件。他們在信中呼籲國際社會暫停開發基於神經網絡的先進AI系統。信中寫道:“遺憾的是,多家AI實驗室最近幾個月來不受控制地競相開發和部署越來越強大的數字智能。沒有人能夠完全理解、預測或可靠地控制這一進程,即便是它們的創造者也無法做到這一點……我們是否應該開發一種最終可能超越並取代我們的AI?我們是否有權承擔令人類文明失控的風險?”
機器“學壞”?
當然,“機器會不會造反”顯然不是人們當下應當考慮的問題。但在AI發展史上,的確出現過一些值得開發人員警醒的事件。例如,已在AI開發領域耕耘多年的亞馬遜公司2017年關停了一個實驗項目。該項目負責開發一種能從數百份求職者簡歷中挑出數名最佳人選的AI。該項目遇到的一個主要問題是,這種AI“面試官”會歧視女性求職者。原因是,亞馬遜公司在對其進行訓練時使用了本公司過去10年的選人經驗,而來該公司求職的大部分爲男性。2016年,微軟在推特網站上發佈了聊天機器人Tay。但Tay上線還不到一天就學會並開始發表種族主義言論。微軟研究院負責人彼得·李不得不道歉,該項目也被暫停。
這些例子表明,在目前階段設置和訓練AI的操作中,最重要的與其說是代碼和算法,不如說是由誰向AI輸入何種信息。Tay的案例表明,允許AI不受控制地訪問社交媒體可能導致它們學壞。如果負責訓練神經網絡的個人或羣體具有極端主義思想傾向或無意中給AI“投喂”了帶有傾向的內容,那麼這種AI可能造成的危害將不亞於機器“造反”。
(參考消息)