擊敗GPT-4的那羣人
機器之能報道
編輯:吳昕
GPT-4 結束了“獨孤求敗”的日子。
前幾天,OpenAI 最大的競爭對手 Anthropic 發佈了新一代 AI 大模型系列 —— Claude 3。該系列包含三個“杯型”,按能力由弱到強(價格由低到高)排列分別是 Claude 3 Haiku、Claude 3 Sonnet 和 Claude 3 Opus。
其中,能力最強的 Opus 在多項基準測試中得分都超過了 GPT-4 和 Gemini 1.0 Ultra,在數學、編程、多語言理解、視覺等多個維度樹立了新的行業基準。
Anthropic 表示,Claude 3 Opus 擁有人類本科生水平的知識。
這兩天各種體驗案例洶涌而至,讚歎聲絡繹不絕。除了聰明,很少有人提及與其他競爭對手相比,Claude 的另一個重要優勢——它不太可能說出有害的話,部分原因是它有一種名爲“憲法 AI ”的訓練技術:
先給模型頒佈一份“憲法”,然後告訴它儘可能遵循這些原則。“憲法”條款來源比較多元——從聯合國人權宣言到社交媒體社區規則,還包括 Anthropic 自己定的規則。然後使用第二個 AI 模型來評估第一個模型的“合憲程度”,在必要時對其進行糾正。
儘管如此,他們仍然會在發佈前夜感到緊張和高壓。去年夏天, Claude 2 發佈前夜,一羣表情焦躁的工程師不斷討論發佈當天可能出現的各種問題。如果新用戶的激增壓倒了公司的服務器怎麼辦?如果模型不小心威脅或騷擾別人,造成(微軟必應式)的公關難題怎麼辦?
在一間會議室裡,Anthropic CEO Dario Amodei 也在仔細研究自己心中的潛在災難清單,他總是會擔心這個模型會不會做一些大家沒有注意到的可怕事情?
當時,他們花了幾個月纔將 Claude 2 推出去,部分原因是公司的紅隊成員不斷想出新的方法,讓它可能變得危險。
某種意義上,這種對 AI 的擔憂正是 Anthropic 存在的原因。這是由一羣前 OpenAI 員工於 2021 年創立的公司,由於越來越擔心 OpenAI 變得過於商業化,他們宣佈分拆出去、組建自己的 AI 企業,稱爲“ AI 安全實驗室”。
CEO Dario Amodei 今年 41 歲,是普林斯頓大學畢業的物理學家,曾領導開發 GPT-2 和 GPT-3 的 OpenAI 團隊。他的妹妹 Daniela Amodei 今年 36 歲,曾負責監督 OpenAI 的政策和安全團隊,也是公司總裁。
幾位聯合創始人研究了所謂的“神經網絡縮放定律”—— 依據其揭示的數學相關性,AI 研究人員可以根據其訓練的數據量和算力來預測 AI 模型能力。他們在 OpenAI 就發現,只需爲模型提供更多數據並添加更多算力,就能讓模型更智能,而無需對底層架構進行重大更改。他們也擔心,如果這些機構繼續製造越來越大的模型,很快會達到一個危險的臨界點。
起初,他們考慮使用其他公司的 AI 模型進行安全研究。但很快發現此路不通,搞尖端的安全研究得有自己的基礎模型(費曼學習法?),這又帶來一個更爲現實的難題——怎麼籌錢購買貴得要死的 GPU?
權衡下來,他們決定將 Anthropic 變成一家公益企業( a public benefit corporation )。根據當地法律,這種新企業形態將使他們能夠兼顧利潤和社會責任(所謂的初心)。他們把自家 LLM 命名爲 Claude , 被賦予樂於助人、無害和誠實的使命。
“沒有一個主流 AI 實驗會像 Anthropic 那樣完整體現出有效利他主義。”《紐約時報》在去年的一篇報道中評價說。
對於有效利他主義者而言,一個很重要的目標就是改善這個世界,而且做到越有效率越好。這意味着他們會透過理性分析、衡量狀況,確保手中資源能夠發揮最大效益,以實現目標。
《紐約時報》記者發現,公司的許多早期員工都是有效利他主義者,大部分啓動資金也來自有效利他主義陣營裡一羣富有的科技高管,其中包括 Facebook 聯合創始人 Dustin Moskovitz、 Skype 聯合創始人 Jaan Tallinn。2022 年,Anthropic 收到了 Sam Bankman-Fried 的支票——失敗的加密貨幣交易所 FTX 創始人,在他的帝國崩潰之前,他向 Anthropic 投資了 5 億多美元。
Anthropic 對安全的癡迷對公司的形象有好處(特別是對立法者和監管者而言),但也被質疑放慢了模型進化速度,影響模型表現。
最早的 Claude 就比較沉悶和愛說教,在一些衆籌的人類評估榜單上,Claude 2 還沒 Claude 評級高,雖然 Claude 2 更安全。不過,Claude 3 在兼顧安全護欄和用戶體驗上要比前輩做得更好。Anthropic表示,靠近安全護欄但實際無害卻被 Claude 3 拒絕的 Prompts 大概有 10%,而 Claude 2.1 有 25%。
由此,同樣注重安全的企業用戶也順理成章地成爲他們的主要客戶——出售給大公司,或將大模型變成利潤豐厚的訂閱產品,這與專注消費者市場 Infection AI、Character AI 甚至 Open AI 等對手有所不同。兩位瞭解其財務狀況的人士告訴《紐約時報》,該公司去年月收入約爲 800 萬美元,預計今年將增長約 8 倍。
Claude 的客戶包括科技公司Gitlab、Notion、Quora 和Saleforce(也是Anthropic 的投資人);金融巨頭橋水基金、SAP 以及商業研究門戶網絡 LexisNexis、SK 電信和全美最佳癌症醫院之一丹娜-法伯癌症中心。
Claude 3 也更多考慮了企業用戶。比如,Claude 3 Opus 主要瞄準那些需要從事非常前沿的複雜數據分析、生物醫學研究的企業。Sonnet 便宜了很多,用於更爲常見的應用,比如大型數據的存儲與搜索、銷售預測和代碼生成。Haiku 最便宜, 主要用與客戶實時交流,比如物流查庫存、內容審覈。
最近,Anthropic 又以 184 億美元的估值籌集了 7.5 億美元(至此,他們在一年內獲得了 73 億美元的融資),計劃在未來幾個月增加代碼解釋、搜索和資源引用等功能。
斯坦福大學計算機科學教授 Percy Liang 曾表示“讚賞 Anthropic 對 AI 安全的承諾”,但也擔心該公司會陷入商業壓力,要求發佈更大、更危險的模型。Dario Amodei 對於這些擔憂的迴應是,想要與 OpenAI 和其他頂級實驗室競爭的主要原因不是爲了賺錢,而是爲了更好地進行安全研究。
他們相信他們正在採取正確的預防措施,最終,他們希望他們對安全的癡迷能在硅谷更廣泛地流行起來。“我們希望會有一場安全競賽,”Anthropic 聯合創始人之一 Ben Mann 去年在接受《紐約時報》採訪時曾說。“我希望不同的公司會說,'我們的模型是最安全的。然後另一家公司會說,'不,我們的模型是最安全的。”
https://www.forbes.com/sites/alexkonrad/2024/03/04/anthropic-releases-claude-3-claims-beat-openai/?sh=7516bea957bc&utm_campaign=socialflowForbesMainTwitter&utm_source=ForbesMainTwitter&utm_medium=social
https://www.nytimes.com/2023/07/11/technology/anthropic-ai-claude-chatbot.html
https://www.nytimes.com/2024/02/20/technology/anthropic-funding-ai.html?utm_source=pocket_saves
© THE END
轉載請聯繫本公衆號獲得授權
投稿或尋求報道:content@jiqizhixin.com