微軟針對Azure雲端服務打造兩款客製化晶片 對應人工智慧與通用運算加速需求
▲左爲針對人工智慧工作執行,以及自動生成式人工智慧應用最佳化的Azure Maia AI加速器,右爲針對通用雲端運算需求的Azure Cobalt CPU
在微軟Ignite 2023活動上,微軟宣佈於旗下Azure雲端服務平臺加入兩款客製化設計晶片,分別是針對人工智慧工作執行,以及自動生成式人工智慧應用最佳化的Azure Maia AI加速器,以及透過Arm架構設計、針對通用雲端運算需求的Azure Cobalt CPU。
至於在與OpenAI合作部分,則將針對Azure Maia AI加速器運作模式提供最佳化調整反饋,藉此讓此款加速器能縮短人工智慧模型訓練時間,並且加快人工智慧應用佈署腳步。同時,藉由Arm架構打造Azure Cobalt CPU,更可進一步降低電力損耗,並且讓伺服器運作效能大幅提升。
隨着微軟在Azure雲端服務導入客製化設計晶片,預期將使其雲端服務能以更高效率運作,並且讓整體電力損耗明顯降低。同時,微軟也強調針對Azure Maia AI加速器打造專屬機架設計,並且搭配專屬水冷系統設計,藉此更有效率地帶走運作時所產生熱能。
▲微軟針對Azure Maia AI加速器打造專屬機架與水冷散熱結構設計
而爲了進一步推動其雲端服務執行效能,微軟也宣佈推出以NVIDIA H100 Tensor Core GPU爲設計,並且先以預覽形式提供使用的NC H100 v5虛擬機器系列服務,讓使用者能借由Azure雲端服務平臺更容易取得運算效能、應用彈性。
此外,微軟也說明接下來將在明年增加NVIDIA H200 Tensor Core GPU規格選項,藉此提供更高運算效能與更短執行反應時間,同時也能支撐大型自然語言模型運算需求,讓更多業者能透過Azure服務平臺取得更高運算資源。
微軟同時也宣佈與AMD合作,預計將以CDNA 3加速架構打造、配置高達192GB HBM3記憶體設計的Instinct MI300X GPU加入Azure雲端服務平臺,並且透過虛擬機器形式對應更高人工智慧運算執行速度,以及更大人工智慧運算模型訓練與推論需求,更可讓使用者以實惠價格透過雲端取得更高算力。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》