英偉達,遭遇反壟斷調查
如果您希望可以時常見面,歡迎標星收藏哦~
來源:內容由半導體行業觀察(ID:icbank)編譯自路透社,謝謝。
據知情人士透露,英偉達即將因涉嫌反競爭行爲而受到法國反壟斷監管機構的指控,這將是第一家針對這家計算機芯片製造商採取行動的執法機構。
去年 9 月,法國對顯卡行業進行了突擊檢查,消息人士稱,針對 Nvidia 的突擊檢查就是法國所謂的異議聲明或指控書。此次突擊檢查是對雲計算進行更廣泛調查的結果。
作爲全球最大的人工智能和計算機圖形芯片製造商,在生成式人工智能應用程序 ChatGPT 發佈後,其芯片的需求猛增,引發了大西洋兩岸的監管審查。
法國監管機構向企業發佈了部分反對聲明,但並非全部。英偉達拒絕置評。該公司在去年的監管文件中表示,歐盟、中國和法國的監管機構曾要求提供有關其顯卡的信息。
其他知情人士表示,由於法國當局正在調查英偉達,歐盟委員會目前不太可能擴大初步審查。
法國監管機構在上週五發布的關於生成人工智能競爭的報告中指出了芯片供應商濫用的風險。
它對該行業對 Nvidia 的 CUDA 芯片編程軟件的依賴表示擔憂,該軟件是唯一與加速計算必不可少的GPU 100% 兼容的系統。
它還提到了對 Nvidia 最近對 CoreWeave 等專注於人工智能的雲服務提供商的投資感到不安。
如果違反法國反壟斷規定,公司將面臨高達其全球年營業額 10% 的罰款,不過它們也可以做出讓步以避免受到處罰。
一位知情人士向路透社透露,美國司法部正牽頭調查英偉達,並與聯邦貿易委員會分擔對大型科技公司的審查。
Nvidia 經濟學:在 GPU 上每花費 1 美元,就能賺取 5 至 7 美元
Nvidia 表示,在四年內,公司每投資 1 美元購買 GPU,就可以賺取 5 到 7 美元。Nvidia 超大規模和 HPC 業務副總裁兼總經理 Ian Buck 本月在美國銀行證券 2024 年全球技術大會上表示,客戶正在投資數十億美元購買新的 Nvidia 硬件,以跟上更新的 AI 模型,從而提高收入和生產力。
競相建設大型數據中心的公司將特別受益,並在數據中心四到五年的使用壽命內獲得豐厚的回報。
Buck 表示:“雲提供商在購買 GPU 上花費的每一美元,四年內都能收回 5 美元。”
Buck表示,推理甚至更有利可圖。
“這裡的經濟效益甚至更好:每花費 1 美元,在同樣的時間段內就能產生 7 美元的營業額,並且這個數字還在增長,”Buck說。
圍繞 Llama、Mistral 或 Gemma 的 AI 推理正在不斷髮展,並由代幣提供服務。Nvidia 正在將開源 AI 模型打包到名爲 Nvidia 推理微服務 (NIM) 的容器中。
Nvidia 表示,其今年早些時候發佈的 Blackwell GPU 針對推理進行了優化。該 GPU 支持 FP4 和 FP6 數據類型,在運行低強度 AI 工作負載時可提高能效。
雲提供商提前兩年就開始規劃數據中心,並希望瞭解未來的 GPU 架構會是什麼樣子。
Nvidia 已分享了 Rubin(在 Computex 上發佈的一款新 GPU)的計劃,以便雲提供商可以爲該 GPU 準備數據中心。Rubin 將於 2026 年上市,並取代將於 2025 年上市的 Blackwell 和 Blackwell Ultra。
“對我們來說,做到這一點真的很重要——數據中心不是憑空而來的,它們是大型建設項目。他們需要了解‘布萊克威爾數據中心會是什麼樣子,它與霍珀數據中心有何不同?’”Buck說。
Blackwell 提供了一個轉向更密集的計算形式和使用液體冷卻等技術的機會,因爲空氣冷卻效率不高。
Nvidia 每年都會推出一款新的 GPU,這有助於公司跟上 AI 發展的步伐,進而幫助客戶規劃產品和 AI 戰略。
Buck說:“Rubin已經與那些最大的客戶交談了一段時間——他們知道我們的目標和時間表。”
AI 的速度和能力與硬件直接相關。在 GPU 上投入的資金越多,公司就能訓練出更大的模型,從而帶來更多收入。
微軟和谷歌將自己的未來寄託在人工智能上,並競相開發更強大的大型語言模型。微軟嚴重依賴新的 GPU 來支撐其 GPT-4 後端,而谷歌則依賴其 TPU 來運行其人工智能基礎設施。
Nvidia 目前正在生產 Blackwell GPU,樣品很快就會發布。但客戶可以預料,首批 GPU(將於年底發貨)將供不應求。
“每一項新技術的轉型都會帶來……供需方面的挑戰。我們在 Hopper 上就經歷過這種情況,Blackwell 的產能提升也將面臨類似的供需限制……今年年底到明年,”Buck 說道。
Buck 表示,數據中心公司正在淘汰 CPU 基礎設施,爲更多 GPU 騰出空間。Hopper GPU 被保留,而基於 Ampere 和 Volta 架構的舊 GPU 則被轉售。
Nvidia 將保留多個級別的 GPU,隨着 Blackwell 的不斷髮展,Hopper 將成爲其主流 AI GPU。Nvidia 已經進行了多項硬件和軟件改進,以提高 Hopper 的性能。
所有云提供商都將提供 Blackwell GPU 和服務器。
Buck 表示,GPT-4 模型大約有 1.8 萬億個參數,由於 AI 擴展尚未達到極限,參數數量還將繼續增長。
“人類大腦的規模爲 1000 億到 150 萬億,具體數量取決於個人,取決於大腦中的神經元和連接。目前,人工智能的規模約爲 2 萬億……我們尚未進行推理,”Buck說道。
將會有一個包含數萬億個參數的大型模型,在此基礎上構建更小、更專業的模型。參數數量對 Nvidia 有利,因爲它有助於銷售更多 GPU。
Nvidia 正在調整其 GPU 架構,從原來的基礎模型方法轉向混合專家模型。
專家混合涉及多個神經網絡通過相互參考來驗證答案。
Buck說:“1.8 萬億參數的 GPT 模型有 16 個不同的神經網絡,它們都試圖回答各自層的部分問題,然後商討、會面並決定正確答案是什麼。”
即將推出的 GB200 NVL72 機架式服務器配備 72 個 Blackwell GPU 和 36 個 Grace CPU,專爲混合專家模型而設計。多個 GPU 和 CPU 相互連接,從而支持混合專家模型。
“這些傢伙都可以相互通信,而不會在 IO 上受阻。這種演變在模型架構中不斷髮生,”Buck 說。
Nvidia 首席執行官黃仁勳本月在 HPE 的 Discover 大會上發表了一些激烈的言論,呼籲人們購買更多該公司的硬件和軟件。
Nvidia 和 HPE 宣佈推出一系列新產品,其名稱簡單明瞭,爲“Nvidia AI Computing by HPE”。
“我們設計了小號、中號、大號和特大號,你可以選擇。而且正如你所知,你買得越多,省得越多,”黃在《發現》雜誌的舞臺上說道。
黃仁勳今年早些時候還發表了另一條備受爭議的言論,當時他說未來的程序員不需要學習如何編寫代碼。但在 Nvidia GPU 上加載 AI 模型需要了解命令行和腳本,以創建和運行 AI 環境。
Nvidia 的專有言論和在人工智能市場的完全主導地位使其成爲反壟斷調查的目標。
當 Buck 試圖淡化人們對 CUDA 的擔憂時,他必須小心謹慎,他表示“護城河是一個複雜的詞”。
兩位高管都表示,CUDA 是其 GPU 的必備軟件——要最大限度地發揮 GPU 的性能,就需要 CUDA。開源軟件可以與 Nvidia GPU 配合使用,但無法提供 CUDA 庫和運行時的強大功能。
向後兼容性和連續性是 Nvidia 的獨特優勢。對 Nvidia 的 AI 模型和軟件的支持可以延續到下一代 GPU。但對於英特爾的 Gaudi 等 ASIC 則不然,它們必須針對每個新模型重新進行調整。
https://www.reuters.com/technology/french-antitrust-regulators-preparing-nvidia-charges-sources-say-2024-07-01/
https://www.hpcwire.com/2024/06/30/nvidia-economics-make-5-7-for-every-1-spent-on-gpus/
點這裡加關注,鎖定更多原創內容
*免責聲明:本文由作者原創。文章內容系作者個人觀點,半導體行業觀察轉載僅爲了傳達一種不同的觀點,不代表半導體行業觀察對該觀點贊同或支持,如果有任何異議,歡迎聯繫半導體行業觀察。
今天是《半導體行業觀察》爲您分享的第3814期內容,歡迎關注。
『半導體第一垂直媒體』
實時 專業 原創 深度
公衆號ID:icbank
喜歡我們的內容就點“在看”分享給小夥伴哦