AWS攜手NVIDIA 以超級晶片驅動雲端人工智慧、強化Amazon EC2執行個體
在此次re:Invent 2023大會上,AWS宣佈與NVIDIA擴大合作,透過導入下一代GPU、CPU與人工智慧軟體,推動生成式人工智慧創新成長。
其中,AWS將成爲第一傢俱備全新多節點NVLink技術的NVIDIA GH200 Grace Hopper Superchip的雲端服務供應商,並且強化Amazon EC2執行個體運算效能,並且讓客戶能擴展數以千計的GH200 Grace Hopper Superchip。
而在AWS雲端服務託管的NVIDIA DGX Cloud,將能借由GH200 Grace Hopper Superchip與單一執行個體最大共享記憶體容量,推動自動生成式人工智慧應用,以及參數超過1兆個的大型語言模型訓練。
另外,NVIDIA更與AWS合作進行Ceiba計劃,預計打造世界上最快的人工智慧超級電腦,其中配備16384個NVIDIA GH200 Grace Hopper Superchip,能處理高達65exaflops的人工智慧運算效能,藉此推動下一波自動生成式人工智慧創新。
AWS將推出三個全新Amazon EC2執行個體,分別包含由NVIDIA H200 Tensor Core GPU驅動、適用於大規模和尖端的生成式人工智慧和高效能運算工作負載的P5e執行個體,以及分別由NVIDIA L4 GPU和NVIDIA L40S GPU驅動的G6與G6e執行個體,適用於人工智慧微調、推論、圖形和影片的工作負載等廣泛應用,而後者更適合使用NVIDIA Omniverse開發3D工作流程、數位孿生與其他應用程式。
其他部分,AWS更透過NVIDIA NeMo框架訓練下一代Amazon Titan大型自然語言模型,而亞馬遜旗下機器人公司Amazon Robotics更透過NVIDIA Omniverse Isaac建置數位孿生環境,以便在實際部署於真實世界之前,先在虛擬環境中以自動化、最佳化和規劃自主運作形式,藉此確認整體運作沒有問題。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》