賽道Hyper | 聯想新服務器將搭載英偉達Blackwell
作者:周源/華爾街見聞
在2024Tech World上,聯想集團董事長兼CEO楊元慶和英偉達CEO黃仁勳聯合宣佈,聯想ThinkSystem服務器系列中的SC777型號,將搭載NVIDIA(英偉達) Blackwell Al加速卡(GPU)。
左:黃仁勳,右:楊元慶/攝影:周源,發自西雅圖
今年3月18日,在GTC(GPU Technology Conference)2024上,聯想集團與NVIDIA宣佈合作推出全新混合人工智能解決方案,幫助企業和雲提供商獲得在人工智能時代成功所需的關鍵的加速計算能力,將人工智能從概念變爲現實。
同時,在大規模高效增強人工智能工作負載方面,聯想在那時發佈了ThinkSystem人工智能產品組合的擴展,其中包括兩款8路NVIDIA GPU系統。
聯想ThinkSystem服務器系列是聯想旗下的數據中心基礎設施產品,包括多種型號,主要針對不同的企業級應用和服務。這個系列目前已知的型號分爲SC和SR。
其中,SR已推出多種類型的產品,但SC目前只有SC777,關鍵功能包括支持大規模計算集羣,極佳的擴展性和可配置性,使其適用於各類企業場景。
從數據中心的高效能計算到邊緣計算場景,聯想ThinkSystem SC777靈活的架構與優異的能效比使SC777能適應多種動態變化的業務需求。此外,這款服務器的安全性設計也極爲出色。
ThinkSystem SC777服務器能在複雜的AI訓練、圖像處理和視頻分析等任務中快速運行,並且通過高度靈活的配置,能迅速適應不同的工作負載需求。
Blackwell是NVIDIA推出的新一代AI芯片與超級計算平臺,得名於美國數學家David Harold Blackwell。這個架構的 GPU 具有 2080 億個晶體管,採用專門定製的臺積電4NP工藝製造。所有 Blackwell 產品均採用雙倍光刻極限尺寸的裸片,通過 10 TB/s 的片間互聯技術連接成一塊統一的 GPU。
第二代Transformer引擎將定製的Blackwell Tensor Core 技術與NVIDIA TensorRT-LLM和NeMo框架創新相結合,加速大語言模型(LLM)和專家混合模型(MoE)的推理和訓練。
爲了強效助力MoE模型的推理Blackwell Tensor Core增加了新的精度(包括新的社區定義的微縮放格式),可提供較高的準確性並輕鬆替換更大的精度。
Blackwell Transformer引擎利用稱爲微張量縮放的細粒度縮放技術,優化性能和準確性,支持4位浮點(FP4)AI。這將內存可以支持的新一代模型的性能和大小翻倍,同時保持高精度。
Blackwell內置NVIDIA機密計算技術,可通過基於硬件的強大安全性保護敏感數據和AI模型,使其免遭未經授權的訪問。這也是業內首款具備可信執行環境(TEE)I/O功能的GPU,不僅能與具備TEE-I/O功能的主機一同提供性能卓越的機密計算解決方案,還能通過NVIDIA NVLink技術提供實時保護。
總的來說,Blackwell GPU是英偉達推出的下一代加速計算和生成式人工智能(AI)的核心平臺,採用全新架構設計,搭載六項變革性的加速計算技術。
這些技術將助推數據處理、工程模擬、電子設計自動化、計算機輔助藥物設計、量子計算和生成式AI等領域實現突破。特別值得一提的是,其AI推理性能比前一代產品提升30倍,而能耗卻降低25倍,這對於AI和計算領域來說是一個巨大進步。