10月29日,英偉達在華盛頓舉行GTC大會,黃仁勛在演講中再次強調摩爾定律(Moore's Law)已正式終結。當前是一個AI算力需求呈雙重指數級增長的時代,這一終結不僅是技術的瓶頸,更是一場新的計算競賽的起點。
英偉達在此次GTC上交付了一套完整的AI工業革命基礎設施。從Grace BlackwellGB200到到NVLink-72全互聯機架,再到Omniverse DSX數字孿生工廠,英偉達的戰略核心是:通過“極致協同設計”(Extreme Co-Design)來打破物理定律的限制,將AI推理(Inference)這個新的計算核心成本降至最低,從而持續驅動AI工業發展的良性循環。
黃仁勛的演講主要包含以下幾個方面:
1、算力新經濟:推理成本的極致壓縮
英偉達的新架構,建立在一個新的算力洞察之上:AI模型從“預訓練”邁向“后訓練”和更高階的思考階段,對算力的需求呈爆炸式增長。特別是“思考”過程,需要AI在每次互動中處理上下文、分解問題、規劃和執行,這使得推理任務變得空前復雜和耗費資源。
在摩爾定律失效的背景下,解決雙重指數級增長的算力需求,只能依靠“極致協同設計”。Blackwell架構不再將GPU視為獨立單元,而是通過NVLink72互聯結構,將72顆GPU整合為一個虛擬的超級GPU。相比上一代,GB200在推理性能上實現了驚人的10倍提升。
極致性能帶來的是最低的Token生成成本。盡管GB200是最昂貴的架構之一,但其每秒Token產出率帶來的總擁有成本(TCO)最低。這是驅動AI良性循環的關鍵經濟杠桿。英偉達已經規劃了下一代架構Rubin,以確保算力性能的指數級增長和成本的指數級下降。
2、從芯片到工廠:基礎設施的生態圈化
英偉達正在將“數據中心”轉變為“AI工廠”。這種工廠只生產一種產品:有價值的Token。英偉達推出了Omniverse DSX,這是一個用于設計、規劃和運營吉瓦級AI工廠的藍圖與數字孿生平臺。
DSX讓西門子、施耐德電氣等合作伙伴,能在虛擬的Omniverse中協同設計計算密度、布局、電力和冷卻系統。這種設計優化,對于一個1吉瓦的AI工廠而言,每年可帶來數十億美元的額外收入,極大地縮短了建設時間和上市周期。
在系統層面,英偉達的ConnectX和BlueField DPU(數據處理器)也進行了深度協同設計。全新的ConnectX9 Super NIC和Spectrum-X以太網交換機,專為AI高性能設計,確保了大規模GPU間的通信不會成為網絡瓶頸。
新一代BlueField-4 DPU被定位為“上下文處理器”,專門用于處理AI所需的巨大上下文,例如讀取大量PDF、論文或視頻后回答問題,并加速KV緩存,解決當前AI模型在處理長對話歷史時越來越慢的問題。
3、跨越邊界:進軍物理AI與核心工業
英偉達的意圖將其核心技術擴展到“物理AI”(Physical AI)的實體經濟維度。
在電信領域,英偉達與諾基亞(Nokia)建立了深度合作,共同發布了NVIDIA ARC平臺。ARC將NVIDIA的Grace CPU、Blackwell GPU和ConnectX網卡結合,運行Aerial CUDA-X庫,旨在打造軟件定義的可編程無線通信系統。ARC還能實現AI on RAN,將AI云計算推向最靠近用戶的無線電邊緣,為工業機器人和邊緣應用提供基礎設施。
人形機器人被視為未來最大的消費電子和工業設備市場之一。英偉達是Figure等頂級機器人公司的核心合作伙伴,提供訓練、模擬和運行的全部平臺。此外,與迪士尼合作開發的機器人,展示了在物理感知環境中進行訓練的潛力。
在自動駕駛領域,NVIDIA DRIVE Hyperion平臺將環繞攝像頭、雷達和激光雷達標準化,使其成為一個“輪式計算平臺”。英偉達宣布與優步(Uber)合作,將這些Drive Hyperion就緒的車輛接入全球網絡,為Robo-Taxi的全球化部署奠定基礎。
在基礎科學領域,英偉達發布了CUDA-Q平臺和NVQLink互聯架構,目標是將GPU超級計算與量子處理器(QPU)直接連接。這種混合架構用于量子錯誤校正和協同模擬,被美國能源部(DOE)的各大國家實驗室廣泛采用。
4、企業AI與生態系統的戰略性覆蓋
黃仁勛認為,AI的本質是“工作者”(Workers),而不是“工具”(Tools)。AI能夠使用工具,這使其能夠參與到此前IT工具無法觸及的100萬億美元的全球經濟中。
為了將AI工作者部署到企業核心業務中,英偉達宣布了兩項重量級合作:
第一,攜手網絡安全巨頭CrowdStrike,共同打造基于云端和邊緣的AI網絡安全代理,以應對AI帶來的新安全威脅,要求速度必須達到“光速”。
第二,與Palantir合作,加速其Ontology平臺的數據處理能力,為政府和企業提供更大規模、更快速的商業洞察。
英偉達還將CUDA-X庫集成到SAP、ServiceNow、Synopsys等關鍵企業SaaS平臺中,將這些工作流程轉化為“代理式SaaS”(Agentic SaaS)。
此次GTC,英偉達完成了從芯片公司到AI工業平臺領導者的徹底重塑,通過一套完整的架構、網絡、工廠和行業延伸,試圖定義新一輪工業革命的底層標準。

以下為黃仁勛演講實錄:
1、開場:擁抱計算新紀元
華盛頓特區!歡迎來到GTC。很難不對美國感到感性和自豪,我得告訴你這件事。那段視頻太棒了!謝謝。英偉達的創意團隊表現出色。
歡迎來到GTC,今天我們將與您深入探討諸多議題。GTC是我們討論行業、科學、計算、當下與未來的地方。所以今天我有很多事情要和你討論,但在開始之前,我想感謝所有贊助這場精彩活動的合作伙伴。你會在展會現場看到所有這些產品,他們來這里是為了見你,真的很棒。沒有我們生態系統中所有合作伙伴的支持,我們無法完成我們的工作。
這可是AI界的超級碗,人們說。因此,每屆超級碗都應該有一場精彩的賽前表演。大家覺得賽前節目怎么樣?還有我們所有明星運動員和明星陣容。瞧瞧這幫家伙。不知怎的,我竟成了最壯實的那一個。你們覺得呢?我不知道我是否與此有關。
英偉達開創了六十年來首個全新計算模型,正如你在視頻中所見。新的計算模型很少出現。這需要大量的時間和一系列條件。我們觀察到,我們發明了這種計算模型,因為我們想要解決通用計算機無法處理的問題。普通計算機無法做到。我們還注意到,總有一天晶體管將繼續發展。晶體管的數量將會增加,但晶體管的性能和功率提升速度將放緩。摩爾定律不會無限延續,它終將受到物理定律的限制。而此刻,終于來臨了。丹納德縮放效應已停止,它被稱為丹納德縮放效應。丹納德縮放定律已于近十年前停止,事實上,晶體管性能及其相關功率的提升已大幅放緩。然而,晶體管的數量仍在持續增加。我們觀察到這一點已經很久了。
應用并行計算,將其與順序處理的CPU結合,我們就能將計算能力擴展到遠超以往的水平。遠遠超出。而那一刻真的到來了。我們現在已經看到了那個拐點。加速計算的時代已然來臨。然而,加速計算是一種根本不同的編程模型。你不能直接拿CPU軟件,那些是手工編寫的軟件,順序執行,并將其部署到GPU上確保正常運行。事實上,如果你只是那樣做了,它實際上運行得更慢。因此你必須重新設計新的算法。你必須創建新的庫。事實上,你必須重寫該應用程序。這就是為什么花了這么長時間的原因。我們花了近三十年才走到今天這一步。但我們是一步一個腳印地完成的。
這是我們公司的瑰寶。大多數人都在談論GPU。GPU固然重要,但若沒有在其之上構建的編程模型,若不致力于該編程模型,就無法確保其在不同版本間保持兼容性。我們現在正推出CUDA 13,并即將推出CUDA 14。數以億計的GPU在每臺計算機中運行,完全兼容。如果我們不這樣做,那么開發者就不會選擇這個計算平臺。如果我們不創建這些庫,那么開發者就不知道如何使用該算法,也無法充分發揮該架構的潛力。一個接一個的申請。這確實是我們公司的瑰寶。
CuLitho,計算光刻技術。我們花了近七年時間才與cuLitho走到今天這一步,現在臺積電也用它,三星也用它,ASML使用它。這是一座令人驚嘆的計算庫。光刻,芯片制造的第一步。CAE應用中的稀疏求解器。cuOpt,一款幾乎打破所有紀錄的數值優化工具。旅行推銷員問題,如何在供應鏈中將數百萬種產品與數百萬客戶連接起來。Warp,用于CUDA的Python求解器,用于仿真。cuDF,一種基于數據框的方法,本質上是加速SQL,數據框專業版-數據框數據庫。這個庫,正是開啟AI的起點,cuDNN,位于頂部的名為Megatron Core的庫使我們能夠模擬和訓練超大規模語言模型。這樣的例子不勝枚舉。
MONAI,非常重要,是全球排名第一的醫學影像AI框架。順便說一句,今天我們不會過多討論醫療保健問題。但一定要去聽金伯利的主題演講。她會詳細介紹我們在醫療保健領域開展的工作。這樣的例子不勝枚舉。基因組學處理,Aerial,注意聽,今天我們要做一件非常重要的事。量子計算。這只是我們公司350個不同庫的代表之一。這些庫中的每一個都重新設計了加速計算所需的算法。這些庫的出現,使得整個生態系統的所有合作伙伴都能利用加速計算的優勢。這些庫中的每一家都為我們開拓了新的市場。
讓我們來看看CUDAx能做什么。
(視頻內容)
這很棒嗎?你所見的一切都是仿真。沒有藝術,沒有動畫。這就是數學的魅力所在。這是深奧的計算機科學,深奧的數學,它美得簡直令人難以置信。涵蓋了所有行業,從醫療保健到生命科學,制造業、機器人技術、自動駕駛汽車、計算機圖形學,甚至電子游戲。你所見到的第一張截圖,正是NVIDIA首次運行的應用程序。而這正是我們1993年起步的地方。而我們始終堅信著自己所追求的目標,它生效了。很難想象你竟能親眼見證那個最初的虛擬格斗場景躍然眼前,而那家公司也相信我們今天會在這里。這真是一段無比精彩的旅程。我要感謝所有英偉達員工所做的一切。這真是太不可思議了。
今天我們要涵蓋的行業很多。我將涵蓋AI、6G、量子技術、模型、企業計算、機器人技術和工廠。讓我們開始吧。我們有很多內容要討論,還有許多重大消息要宣布。許多新伙伴會讓你大吃一驚。
2、加速計算崛起
電信是經濟的脊梁,是經濟的命脈。我們的產業,我們的國家安全。然而,自無線技術誕生之初,我們便定義了這項技術,我們制定了全球標準,我們將美國技術輸出到世界各地,使世界能夠基于美國技術和標準進行發展。那件事已經過去很久了。當今全球無線技術主要依賴于國外技術。我們的基礎通信架構建立在外國技術之上。這種情況必須停止,而我們正有機會做到這一點。尤其是在這個根本性的平臺轉型期間。眾所周知,計算機技術是支撐所有行業的基石。這是科學最重要的工具。這是工業領域最重要的單一工具。我剛才說我們正在經歷平臺轉型。這次平臺轉型,應當是我們重返賽場千載難逢的機會。讓我們開始運用美國技術進行創新。
今天,我們宣布我們將采取行動。我們與諾基亞建立了重要的合作伙伴關系。諾基亞是全球第二大電信設備制造商。這是一個價值3萬億美元的產業。基礎設施投資高達數千億美元。全球有數百萬個基站。如果我們能夠建立合作伙伴關系,就能基于這項以加速計算和AI為核心的非凡新技術進行創新發展。而對于美國而言,要讓美國成為下一輪6G革命的核心。
因此,今天我們宣布英偉達推出了一條全新產品線。它被稱為NVIDIA ARC,即空中無線電網絡計算機。空中RAN計算機,ARC。ARC由三項基礎性新技術構建而成:Grace CPU、Blackwell GPU以及我們的Mellanox ConnectX網絡解決方案專為該應用設計。所有這些使我們能夠運營這座庫,我之前提到的這個名為Aerial的CUDA X庫。Aerial本質上是在CUDAX之上運行的無線通信系統。我們將要首次創造一種軟件定義的可編程計算機,能夠同時進行無線通信和AI處理。這完全是革命性的。我們稱之為NVIDIA ARC。
諾基亞將與我們合作,整合我們的技術。重寫他們的棧。這是一家擁有7,000項5G核心基礎專利的公司。很難想象還有比他更杰出的電信業領袖了。因此我們將與諾基亞建立合作伙伴關系。他們將把NVIDIA ARC作為未來的基站。NVIDIA ARC還兼容AirScale,即當前諾基亞的基站系統。這意味著我們將采用這項新技術,能夠在全球范圍內升級數百萬個基站,實現6G和AI的升級。如今6G和AI確實具有根本性意義,因為它們首次實現了我們將能夠使用AI技術,即面向無線接入網的AI技術。提高無線電通信的頻譜效率。利用AI,采用強化學習,實時調整波束成形,在具體情境中,取決于周邊環境、交通狀況以及移動出行方式、天氣。所有這些因素都可納入考量,從而提升頻譜效率。頻譜效率消耗約全球1.5%至2%的電力。因此,提高頻譜效率不僅能提升無線網絡傳輸數據的能力,同時無需增加所需的能量消耗。
我們還能做另一件事,即為無線接入網提供AI支持。是AI-on-RAN。這是一個全新的機遇。請記住,互聯網實現了通信,但真正了不起的是那些聰明的公司。亞馬遜云科技在互聯網基礎上構建了云計算系統。我們現在要在無線通信網絡上實現同樣的功能。這片新云將成為邊緣工業機器人云。此處指的是AI-on-RAN。首項是AI-for-RAN,提升無線電性能、提高無線電頻譜效率,第二是基于AI的無線接入網,本質上是無線通信領域的云計算。云計算將能夠直接延伸至邊緣區域,即沒有數據中心的地方。并非如此,因為我們在全球各地都設有基站。這個消息真是令人興奮。
讓我們來談談量子計算。1981年,粒子物理學家、量子物理學家理查德·費曼構想了一種新型計算機,能夠直接模擬自然。因為自然本身就是量子化的。他稱之為量子計算機。40年后,該行業實現了根本性突破。40年后,就在去年,實現了根本性突破。現在可以制造一個邏輯量子比特,一個保持相干性的邏輯量子位,穩定,且錯誤已修正。過去,一個邏輯量子比特由有時可能是10個,有時可能是數百個物理量子比特協同工作。眾所周知,量子比特這些粒子極其脆弱。它們很容易變得不穩定。任何觀察、任何采樣行為、任何環境條件都會導致其失相干。因此需要極其嚴格控制的環境。
如今,還有許多不同類型的物理量子比特,它們協同工作,讓我們能夠對這些量子比特進行糾錯。所謂的輔助量子位或綜合量子位,供我們進行錯誤糾正并推斷其邏輯量子位狀態。存在各種不同類型的量子計算機,超導、光子學、囚禁離子、穩定原子,各種不同的方法來制造量子計算機。現在我們意識到,必須將量子計算機直接連接到GPU超級計算機,這樣才能進行錯誤糾正。以便我們能夠對量子計算機進行AI校準與控制,以便我們能夠共同進行模擬,協同工作,在GPU上運行的正確算法,在QPU上運行的正確算法,以及這兩種處理器,兩臺計算機并排工作。這就是量子計算的未來。
(視頻內容:讓我們來看看。構建量子計算機的方法有很多。每種都采用量子比特作為其核心構建單元。但無論采用何種方法,所有量子比特,無論是超導量子比特、囚禁離子還是中性原子或光子,面臨相同的挑戰。它們非常脆弱,對噪音極其敏感。當前的量子比特僅能穩定運行數百次操作。但解決有意義的問題需要數萬億次運算。答案是量子糾錯。測量會擾動量子比特,從而破壞其內部的信息。訣竅在于添加額外的量子比特,并使它們處于糾纏態。這樣,測量它們就能為我們提供足夠的信息來計算錯誤發生的位置,同時不會損壞我們關心的量子比特。它非常出色,但需要超越最先進的常規計算能力。
正因如此,我們打造了NVQLink,一種全新的互連架構,可將量子處理器與英偉達GPU直接連接。量子糾錯需要從量子比特中讀取信息,計算錯誤發生的位置,并將數據發送回去進行修正。NVQLink能夠以每秒數千次的頻率,在量子硬件與外部設備之間傳輸數千兆字節的數據,以滿足量子糾錯所需的高速數據傳輸需求。其核心是CUDA-Q,我們面向量子GPU計算的開放平臺。借助NVQ-Link和CUDA-Q,研究人員將能夠實現超越錯誤糾正的功能。他們還將能夠協調量子設備和AI超級計算機來運行量子GPU應用程序。量子計算不會取代經典系統。它們將協同工作,融合為一個加速的量子超級計算平臺。)
要知道,CEO們可不是整天坐在辦公桌前打字的。這是體力活,純粹的體力活。因此,今天我們宣布推出NVQLink。其實現得益于兩點:當然,這個用于量子計算機控制和校準的互連系統,量子糾錯,以及連接兩臺計算機,利用QPU和我們的GPU超級計算機進行混合仿真。它還具有完全的可擴展性。它不僅能為當前數量有限的量子比特執行糾錯操作,它為明日的錯誤糾正做準備,屆時我們將把量子計算機從如今的數百量子比特擴展到數萬量子比特。未來將擁有數十萬個量子比特。因此,我們現在擁有了一套能夠實現控制的架構,協同激發、量子糾錯與未來擴展。
業界的支持令人難以置信。在CUDA-Q發明之前,請記住,CUDA原本是為GPU、CPU和加速計算設計的,基本上是同時使用兩個處理器來完成一一用對工具做對事。如今,CUDA-Q已擴展至CUDA之外,從而能夠支持QPU,使兩種處理器協同工作。QPU與GPU協同工作,計算任務在兩者之間往返傳遞,耗時僅數微秒,實現與量子計算機協同運作所需的基本延遲。如今,CUDA-Q已成為一項了不起的突破性技術,被眾多不同領域的開發者所采用。我們今日宣布,共有17家量子計算機行業公司支持NVQLink。而且我對此感到非常興奮。
八個不同的美國能源部實驗室:伯克利實驗室、布魯克海文實驗室、費米實驗室、林肯實驗室、洛斯阿拉莫斯、橡樹嶺、太平洋西北、桑迪亞國家實驗室。幾乎所有美國能源部的實驗室都與我們展開合作,攜手量子計算機公司生態系統及量子控制器供應商,將量子計算逐步融入科學發展的未來藍圖。
我們正在經歷幾次平臺轉型。一方面,我們正經歷著加速計算的發展,這就是為什么未來的超級計算機都將基于GPU。我們將轉向AI,使AI與基于原理的求解器、基于原理的模擬協同工作。基于原理的物理模擬不會消失,但它可以被增強、強化、擴展,使用代理模型、AI模型。
我們還知道,通過基于原理的求解器,經典計算能夠借助量子計算來增強對自然狀態的理解。我們也知道,未來我們擁有如此多的信號,必須從世界中采樣如此多的數據,遙感技術的重要性已達到前所未有的高度。除非這些實驗室成為自動化工廠,否則它們根本無法以我們所需的規模和速度進行實驗,成為機器人實驗室。因此,所有這些不同的技術正同時涌入科學領域。

3、極致協同設計,重塑AI算力經濟
我們來聊聊AI吧。什么是AI?大多數人會說AI就是聊天機器人,嗯,這完全是理所當然的。毫無疑問,ChatGPT正處于人們所認為的AI的前沿。然而,正如你此刻所見,這些科學超級計算機不會運行聊天機器人,他們將從事基礎科學研究。
科學AI的世界遠比想象中更廣闊,遠不止是一個聊天機器人。當然,聊天機器人極其重要,而通用AI則具有根本性的關鍵意義。深層計算機科學、非凡的計算能力以及重大突破,仍是實現AGI的關鍵要素。但除此之外,AI還有更多可能。
實際上,我將用幾種不同的方式來描述AI。第一種方式,即人們最初對AI的認知,是它徹底重構了計算棧。我們過去做軟件的方式是手工編碼,在CPU上運行手工編碼軟件。如今,AI就是機器學習、訓練,或者說數據密集型編程,由在GPU上運行的AI訓練和學習而成。為實現這一目標,整個計算棧已發生改變。
注意,你在這兒看不到windows,也看不到CPU。你看到的是完全不同的、從根本上截然不同的架構。
在能源之上還有這些GPU。這些GPU被連接到、集成到我稍后將展示的基礎設施中。在這項基礎設施之上——它由巨型數據中心構成,其規模輕松達到這個房間的數倍之多。巨大的能量隨后通過名為GPU超級計算機的新設備轉化,從而生成數據。這些數字被稱為tokens。
語言,也就是計算的基本單位,是AI的詞匯表。幾乎任何東西都可以進行tokens化。當然,你可以對英語單詞進行分詞處理,你可以對圖像進行分詞處理,這就是你能夠識別圖像或生成圖像的原因。對視頻進行分詞,對3D結構進行分詞。你可以對化學物質、蛋白質和基因進行tokens化處理,你可以對單元格進行tokens化處理,將具有結構的幾乎任何事物、具有信息內容的任何事物進行分詞處理。
一旦能夠將其tokens化,AI就能學習該語言及其含義。一旦它學會了那種語言的含義,它就能翻譯,它能回應,就像你與ChatGPT互動那樣,它能生成內容。因此,你所看到ChatGPT所做的一切基礎功能,你只需想象一下,如果它是一種蛋白質會怎樣?如果它是一種化學物質呢?如果它是一個3D結構,比如工廠呢?如果它是一個機器人,而tokens是理解行為并將其轉化為動作和行為的標記呢?所有這些概念基本上是一樣的。這正是AI取得如此非凡進展的原因。
在這些模型之上還有應用程序。Transformers是一個極其有效的模型,但并不存在放之四海皆準的通用模型。只是AI具有普遍影響。模型種類繁多。在過去的幾年里,我們享受了發明帶來的樂趣,并經歷了創新的洗禮,例如多模態的突破。有這么多不同類型的模型,有CNN模型(卷積神經網絡模型),有狀態空間模型,也有圖神經網絡模型,多模態模型,當然,還包括我剛才描述的所有不同的分詞方式和分詞方法。