NVIDIA執行長:即便競爭對手以免費形式提供晶片 人工智慧技術總持有成本仍不算「便宜」
在近期參與史丹佛大學經濟政策研究院 (Stanford Institute for Economic Policy Research,SIEPR)所舉辦論壇活動上,NVIDIA執行長黃仁勳表示即便競爭對手將其人工智慧晶片以免費形式提供,依然無法影響NVIDIA提出解決方案。此外,黃仁勳也透露下一款DGX超級電腦將會導入液態冷卻設計,藉此確保超算系統能更穩定運作。
依照黃仁勳的說法,認爲人工智慧整體運作應該是看重效能背後的總持有成本,因此如果從整體運算效能所帶動效益來看,NVIDIA所打造的人工智慧晶片價格定不算昂貴。
黃仁勳此論調,主要回復美國著名投資人Charles R. Schwab、美國國家經濟局研究員John Shoven等人提問,認爲NVIDIA雖然打造先進的人工智慧晶片,但在面臨諸多造價相對便宜,同時也有足夠效能表現的人工智慧晶片於市場競爭時,可能會有不少挑戰。
黃仁勳表示,目前NVIDIA採完全開放心態對外合作,因此合作客戶實際上也包含市場上的競爭對手,強調NVIDIA相當樂於與所有市場業者攜手合作。
而從購買人工智慧晶片的客戶立場來看,自然會考量人工智慧晶片價格,但經營數據中心的客戶則會着眼於整體營運開銷,因此更重視的是總持有成本,這部份就會成爲NVIDIA產品優勢,包含佈署應用時間、效能表現、利用率與使用彈性都會明顯高於競爭對手產品,因此即便競爭對手以免費形式提供其人工智慧晶片,從總持有成本角度來看,其實也不算「便宜」。
至於針對下一款DGX超級電腦設計,將會導入液態冷卻設計,藉此對應更大規模人工智慧運算,似乎暗示接下來在GTC 2024期間即將揭曉的代號「Blackwell」GPU,將會預設透過冷卻系統設計,藉此確保其運作穩定性。
在此之前,NVIDIA推出包含「Hopper」在內GPU設計均能在空冷情況下正常運作,僅在特定情況會透過液冷方式穩定運作輸出效能表現,但有可能因爲接下來的代號「Blackwell」GPU運作功耗介於1000W至1400W之間,因此需要透過液冷方式確保運作穩定性。
透過液冷方式確保伺服器、超級電腦運作穩定,實際上並非特例,包含Intel、微軟、Google在內業者先前都曾提出液冷方式設計的伺服器應用方案,藉此確保伺服器、數據中心穩定運作。
《原文刊登於合作媒體mashdigi,聯合新聞網獲授權轉載。》