OpenAI組建新團隊以評估人工智能的“災難性風險”
10月27日消息,美國當地時間週四,人工智能研究公司OpenAI宣佈組建新團隊,以評估和減輕與人工智能相關的“災難性風險”。
OpenAI在週四的聲明中表示,這個新團隊名爲Preparedness,其主要任務是“跟蹤、評估、預測和保護”人工智能造成的潛在重大問題,包括核威脅。
此外,該團隊將致力於減輕“化學、生物和放射性威脅”,以及人工智能的“自主複製”行爲。Preparedness團隊將解決的其他風險包括人工智能欺騙人類的行爲,以及網絡安全威脅。
OpenAI在更新中寫道:“我們相信,前沿人工智能模型的能力將超越目前最先進的模型,有可能造福全人類。不過,它們也構成了越來越嚴重的風險。”
麻省理工學院可部署機器學習中心主任亞歷山大·馬德里(Aleksander Madry)將領導Preparedness團隊。
OpenAI指出,Preparedness團隊還將制定和維護一項“風險知情的開發政策”,該政策將概述公司在評估和監控人工智能模型方面所做的工作。
OpenAI首席執行官薩姆·奧特曼(Sam Altman)曾警告過人工智能可能引發的災難性事件。今年5月,奧特曼和其他著名人工智能研究人員發表了一份簡短聲明,稱“減輕人工智能帶來的滅絕性風險應該是全球的優先事項。”
此前在倫敦接受採訪時,奧特曼還建議各國政府應該像對待覈武器一樣,“認真對待”人工智能。(小小)