黃仁勳:GPU摩爾定律 輝達來延續
黃仁勳演講重點COMPUTEX 2023即將登場,輝達(NVIDIA)創辦人黃仁勳29日進行專題演講。圖/顏謙隆
「晶片教父」輝達(NVIDIA)創辦人暨執行長黃仁勳來臺爲Computex 2023電腦展揭開序幕,他展現超級業務員的身段,秀出多款生成式人工智慧平臺,並親自介紹DGX新一代頂規GH200 AI電腦及Grace Hopper超級晶片等產品;黃仁勳強調,繪圖處理器效能將在五年內提升1,000倍,「GPU的摩爾定律,將由輝達來延續」。
COMPUTEX 29日召開展前會,黃仁勳舉辦大型演說,吸引3,500名觀衆與會。黃仁勳表示,我們現在正處於一個全新運算時代的轉捩點,加速運算和人工智慧已經被世界上幾乎所有的運算和雲端公司所接受。
黃仁勳在談話中,更用流利的臺語指出:「AI Server省很多錢!」,能用更小的面積、更大的功耗,取代現有的資料中心。
由於生成式AI的成長速度驚人,目前有40,000家大型公司和15,000家新創公司已採用NVIDIA技術,去年CUDA軟體下載量更達2,500萬次,包括Adobe、微軟等均導入AI生成式應用。
黃仁勳29日亦重磅宣佈具有龐大記憶體的人工智慧超級電腦DGX GH200,獲Google Cloud、Meta與微軟採用,該產品將256個NVIDIA Grace Hopper超級晶片連接成一個資料中心大小的GPU,並導入NVIDIA Grace CPU與H100 Tensor核心GPU集合在一個模組內。
此外,輝達的Grace Hopper超級晶片混合NVIDIA Grace CPU和Hopper GPU,並使用NVIDIA NVLink-C2C互連技術,提供高達900GB/s的頻寬,較傳統PCIe Gen5高7倍,採用臺積電CoWoS先進封裝製程,已經進入量產。
雖然AI伺服器價格高昂,以搭載H100的AI伺服器爲例,預估要價4萬美元,但黃仁勳強調,AI伺服器相較資料中心,有更強大的運算能力,更符合生成式AI訓練任務,而且同樣的功耗之下,能解省更多的空間,「The more you buy the more you save」(買愈多、省更多)。
黃仁勳也介紹MGX伺服器設計模組,提供系統製造商模組化架構以滿足全球資料中心多樣化的加速運算需求,如廣達旗下的雲達科技與美超微,都是首批使用設計模組廠商,其中伺服器規格支援100多種系統配置,用以加速處理AI、HPC及 Omniverse(協作與模擬平臺)的任務。