Akamai:從訓練到推理,AI大模型重點在轉移

通信世界網消息(CWW)AI正以澎湃之勢席捲而來,在提升人們工作生活效率的同時,也創造了衆多新的市場機遇。

作爲CDN領域領導者,Akamai自2008年進入中國市場,致力於幫助中國企業順利“出海”,目前已在電商、遊戲、金融、製造業、社交媒體等多個領域積累了衆多頭部客戶。同時,伴隨着新技術新應用的出現,Akamai也在積極拓展新的領域。

Akamai亞太區雲計算專家團隊負責人 李文濤

2024年四季度,Akamai面向AI使用場景發佈了GPU計算實例產品。這款產品基於Nvidia RTX 4000 Ada——一款多用途、靈活高效的GPU卡,既適合做視頻編解碼、多媒體處理和渲染,又適合進行AI推理相關工作。“Akamai將自己定位爲‘推理雲’,幫助用戶更好地在Akamai公有云上進行推理。”Akamai亞太區雲計算專家團隊負責人李文濤表示。

從訓練轉向推理

衆所周知,AI包含訓練和推理兩個過程,在Akamai看來,AI建設的重心正在向推理傾斜。“AI大模型的發展重點正在從訓練轉向推理,接近用戶邊緣的推理計算需求正在增長,邊緣推理也是Akamai重點關注的技術方向。”李文濤表示。

雖然目前國內大模型開發熱情高漲,“百模大戰”已經打響。但不可否認的是,國內原生大模型數量較少,大部分企業主要借用開源模型爲自己的業務提供服務。甚至可以說,很少有企業能夠從頭到尾訓練模型,更多是對模型進行微調優化。此外有行業研究表明,未來90%的AI成本開銷集中在推理環節,訓練成本開銷只佔10%。因此無論從成本開銷還是技術複雜度考慮,推理都是值得重點關注的方面。

在Akamai看來,訓練和推理兩種場景對於雲計算的需求存在差異。其中,訓練需要大規模的核心雲數據中心,以及大量的高端GPU卡,很多時候還需要將多塊GPU卡連接起來進行訓練。而推理對於雲服務的需求體現在兩個方面:一是AI模型需求相匹配與的GPU和相關雲服務;二是位置距離最終用戶足夠近,以充分降低推理過程中的網絡時延。

Akamai以“推理雲”爲定位,藉助邊緣基礎設施爲推理提供服務。客戶在使用AI模型時希望得到快速回應,特別是未來AI模型與IoT設備、自動駕駛等場景結合,對時延的要求會越來越高。Akamai依託強大的CDN網絡基礎和豐富的邊緣算力,幫助客戶面對AI推理對性能提出的挑戰。此外,Akamai在應用安全防護方面也有大量積累,在提升客戶體驗的同時保障AI模型的安全使用。

具體來看,Akamai這款GPU計算實例,適合於生成式AI推理;結合邊緣機房資源,能夠在GPU算力層面和網絡層面幫助客戶最大限度提高推理性能。此外,Akamai的安全能力還能爲保障推理安全、確保API接口不被濫用、防止DDoS攻擊等。

自建服務是節省成本最優選擇

AI安全和數據隱私都是業界關注的話題,Akamai對這些問題也提出了應對之策。

隨着AI的日益普及,一些不法分子開始使用AI構建惡意代碼、釣魚軟件等,使得網絡安全形勢日益複雜。對此,Akamai一方面加強了AI與安全產品的集成,通過加大投入,用AI模型和算法發現來源於AI的攻擊威脅,提升識別率和阻攔成功率;另一方面建立安全顧問團隊,幫助客戶實時調整雲安全策略,提供威脅防禦諮詢和服務。

在數據隱私保護方面,AI訓練需要大量數據,最終用戶在推理過程中也會提供個人敏感數據,如何確保數據的安全對於雲計算平臺而言既是挑戰也是機遇。Akamai的分佈式邊緣雲可以將用戶敏感數據留存在最終用戶所在國家境內,避免了數據跨境傳輸的複雜性。

此外,近期多家頭部大模型廠商掀起了大模型應用降價潮。在Akamai看來,大模型廠商降價是好事,有助於降低用戶使用門檻。Akamai建議,對於那些希望以大模型爲核心提供服務的廠商來說,購買基礎設施雲資源和租用GPU資源自建服務是實現成本節省的更優選擇。其實在雲計算服務中,客戶使用託管式SaaS服務與在IaaS平臺上自建服務之間就存在顯著的成本差距,使用PaaS和SaaS服務的成本約爲使用開源軟件自建服務的4倍。而在AI方面,使用PaaS和SaaS形式的大語言模型推理服務,其成本可能是自建推理環境的10倍左右。

截至目前,Akamai在全球擁有29個大型數據中心和10個小型數據中心,這些成爲Akamai提供全球服務的堅實基礎。展望2025年,Akamai表示將繼續加大在公有云方面的投入,提供更多高附加值的行業解決方案,在AI推理方面提供更加豐富的硬件選擇和整體解決方案。