2026 NVIDIA GTC Keynote|黃仁勳 完整演講(中文字幕)2K
By DayDreamCapital
Summary
## Key takeaways - **CUDA Flywheel Accelerates**: CUDA's massive installed base of hundreds of millions of GPUs attracts developers to create breakthroughs like deep learning, spawning new markets and ecosystems that further expand the base, with library downloads accelerating at unprecedented scale. [04:03], [04:49] - **GeForce Built CUDA Base**: 25 years ago, GeForce attracted future customers early by letting parents buy affordable cards, turning gamers into NVIDIA developers and establishing the CUDA platform worldwide. [07:10], [07:46] - **DLSS 5 Neural Rendering**: DLSS 5 fuses controllable 3D graphics structured data with generative AI for neural rendering, creating beautiful, stunning, and controllable content that will replay across industries. [10:23], [12:39] - **QDF QVS Accelerate Data**: NVIDIA created QDF for dataframes structured data and QVS for vector semantic unstructured data like PDFs and videos, enabling AI to query 90% of the world's unstructured information previously unusable. [16:01], [16:08] - **Nestle 5x Speed 83% Cost Cut**: With accelerated WatsonX data on NVIDIA GPUs, Nestle refreshes supply chain datasets same-day at 5x speed and 83% lower cost, versus CPU's few times per day. [18:07], [18:23] - **Blackwell 35x Token Throughput**: Grace Blackwell with NVLink 72 and FP4 delivers 35x higher tokens per watt than Hopper in AI inference, enabling tiered token pricing from free to $150 per million for smarter models. [01:00:20], [01:01:05]
Topics Covered
- CUDA Flywheel Accelerates AI
- GeForce Parents Funded CUDA
- Structured Data Powers Trustworthy AI
- NVIDIA Vertically Integrates Openly
- Inference Inflection Drives Trillion Revenue
Full Transcript
英偉達創辦人兼 首席執行官,Jensen Wong。
歡迎來到GTC!
我只想提醒您,這是一場科技會議。
這些人 這麼早就開始排隊了。
在早晨。
在座各位, 很高興看到 你。
GTC。
GTC,我們將要 談談 技術。
我們要談談 關於平台。
英偉達有三個 平台。
你認為我們 主要談論 其中之一。
它與CUDAX有關。
我們的系統是 另一個平台。
現在我們有了 名為新平台 人工智慧工廠。
我們要談談 幾乎涵蓋了所有這些。
而且大多數 重要的是,我們是 打算談 生態系。
但在此之前, 讓我感謝我們的 賽前節目主持人。
我以為他們確實 幹得好。
來自 Conviction 的 Sarah Goh。
阿爾弗雷德·林,紅杉 Capital,NVIDIA的 首次創業的投资人。
英偉達的 Gavin Baker 第一大 機構 投資者。
這三個人 深陷其中 技術,深入 這是怎麼回事。
當然,他們 真的 廣泛的影響 科技 生態系。
當然,還有… 所有貴賓 我親自挑選的 歡迎您今天加入我們。
全明星隊。
我要感謝所有人 謝謝你。
這裡。謝謝那些公司。
如您所知,NVIDIA 是一個平台 公司。
我們擁有技術。
我們有我們的 平台。
我們擁有豐富的 生態系。
而今天,那裡 可能是100% 100美元 兆 這裡是產業中心。
450家公司 贊助此內容 事件。
我想感謝你。
1,000名技術人員 會議。
2000名演講者。
本次會議是 即將覆蓋 每一層 五層 人造蛋糕 從土地,到權力, 和貝殼,到 基礎設施 晶片,到 平台 模型。
當然,還有 最重要的是, 歸根究底,什麼是… 準備買這個 產業起飛, 全部 應用程式.
一切開始時, 一切都從這裡開始。
這是第20個 CUDA週年紀念日。
我們一直在努力 CUDA 20 年。
20年來,我們一直 一直致力於 這種建築風格。
這場革命 發明,SIM-T, 單指令, 多線程, 編寫標量程式碼, 可能衍生 進入多線程 容易得多 比 SIMD 更適合程式設計。
我們最近新增了 瓷磚,以便我們 可以幫助人們 程式張量 核心和 結構 數學 是如此基礎性的 人工 當今的情報。
有成千上萬個。
成千上萬 工具和編譯器 以及框架和 圖書館。
在開源領域, 有幾個 十萬 公共項目。
CUDA 字面意思是 整合到 每一個 生態系。
此圖表 基本描述 100% 英偉達 策略。
你一直 看著我說話 關於此投影片 從一開始就 開始。
最終, 單項最難 要達成的目標是 那個東西 底部:已安裝 根據。
我們花了20年時間 多年後終於擁有 累積了數百 數百萬個GPU 計算 周圍的系統 運行 CUDA 的世界。
我們無所不在 雲端,我們身處其中 每台電腦 公司,我們服務 幾乎所有 單一行業。
已安裝基數 CUDA 是 飛輪的原因 正在加速。
已安裝基數 這就是吸引人的地方。
開發者,他們 然後創建新的 演算法 實現 突破。
例如,深 學習。
太多了。
其他的。
這些突破 導致完全 新市場, 新建 周圍的生態系統 他們與其他 加入的公司, 這會造成 更大的安裝 根據。
飛輪,這個 飛輪現在 加速。
數量 下載NVIDIA 圖書館是 難以置信 加速。
它處於非常 大規模和 成長速度超過 曾經。
這個飛輪是 是什麼讓它如此特別 計算平台 能夠維持 應用廣泛, 好多新的 突破。
但大多數 重要的是,它 也能夠實現這些 基礎設施 有 非常 使用壽命。
原因在於 那非常 明顯的。
太多了。
應用程式 你可以在NVIDIA顯示卡上運行。
不同的。
我們支持 全部 人工智慧階段 生命週期。
我們處理每一個問題 單一數據 處理平台。
我們加速 科學原則 所有解題者 不同種類。
所以, 應用範圍 太棒了, 安裝NVIDIA顯示卡後 GPU,有用的 它的生命就是 高得驚人。
它也是其中之一 安培的那些原因, 我們已出貨 他們大約六年 之前,定價 雲端安培 正在上漲。
所以所有這一切 這使得一切成為可能 從根本上 因為安裝 基座很高, 飛輪高度很高, 開發者達到 太好了。
當所有… 這種情況確實會發生,而我們 持續更新 我們的軟體, 計算成本下降。
組合 加速 計算速度 向上申請 非常大。
同時,當我們 繼續培養 並繼續 更新軟體 在其生命週期內,而不是 只有你才能得到 第一次流行音樂,你 獲取連續 降低成本 加速 隨時間推移進行計算。
我們願意 樂於培育,願意 支持每 這些中的哪一個 全球GPU數量 因為它們都是 建築學上 相容的.
我們願意這樣做 所以,因為 安裝基礎如此龐大 很大,如果我們 發布新 優化,它 惠及數百萬人。
這適用於 每個人都 世界。
這種組合 動態就是什麼 英偉達 建築擴展 它的影響範圍, 加速 同時成長 開車下山的時間 計算成本, 最終 鼓勵新的 生長。
所以CUDA處於… 中心。
但我們的旅程 實際上,CUDA 始於25年前 前。
GeForce。
我知道有多少 你從小就接觸GeForce顯示卡。
GeForce是NVIDIA的 最佳行銷 活動。
我們吸引未來 客戶開始 在你之前很久 有能力支付 自己去弄吧。
你父母付的錢。
你父母付的錢。
你父母付的錢 讓你成為英偉達 顧客。
每一個 一年後,他們付清了款項。
逐年 一年後直到 總有一天你會變成 一台令人驚嘆的電腦 科學家和 成為一個合適的 顧客。
合適的開發商。
但是,這就是,這就是 是那棟房子 GeForce出品。
25年前,我們 開始了我們的旅程 由此誕生了 CUDA。
25年前,我們 發明了 可編程著色器。
一個完全不明顯的 發明製造 加速器 可編程的。
世界首家 可程式設計 加速器 像素著色器。
25年前, 促使我們去探索 越來越遠, 20年後, 五年後, CUDA的發明。
最大的之一 我們進行的投資 已經做出來了,但我們做不到。
買得起 時間,以及它 吞噬了廣闊的 我們大多數人 公司利潤, 是要接受 CUDA 測試 GeForce 的背面 致每一個人 電腦.
我們致力於 我們自己創造 這個平台 因為我們如此 我們感到非常… 強烈地認同這一點 潛在的。
但歸根究底, 公司的 全心投入, 儘管 困難 開始, 相信一切 單日,13 世代或20 多年來,我們現在已經擁有 已安裝 CUDA 到處。
第一步 過程 未來,以及 未來 未來,我們必須 這樣做。
未來 未來,我們必須 這樣做。
未來 未來,我們必須 這樣做。
未來 未來,我們必須 這樣做。
未來 未來,我們必須 這樣做。
未來 未來,我們必須 這樣做。
未來 未來,我們必須 這樣做。
未來 未來,我們必須 這樣做。
未來 未來,我們必須 這樣做。
未來 未來,我們必須 這樣做。
未來 未來,我們必須 這樣做。
我們必須這樣做。
未來 未來,我們必須 這樣做。
我們必須這樣做。
未來 未來,我們必須 這樣做。
未來 未來,我們必須 這樣做。
未來 未來,我們必須 這樣做。
未來 未來,我們必須 這樣做。
未來 未來,我們必須 這樣做。
未來 未來,我們必須 這樣做。
未來 未來,我們必須 這樣做。
未來 未來,我們必須 這樣做。
未來 未來,我們必須 這樣做。
未來 未來,我們必須 這樣做。
未來 未來,我們必須 這樣做。
未來 未來,我們必須 這樣做。
未來 未來,我們必須 這樣做。
未來 未來,我們必須 這樣做。
未來 未來,我們必須 這樣做。
未來 未來,我們必須 這樣做。
GPU 可能 做他們的朋友 在加速 深度學習。
它開啟了巨大的 人工智慧爆炸。
十年前,我們 決定 我們將融合 可程式設計 陰影 並引入兩個 新想法。
光線追踪, 硬體射線 追蹤, 這真是太不可思議了 很難做到。
以及一個新想法 時間。
想像一下,大約十 幾年前, 我們認為人工智慧 這將帶來革命性的改變 電腦圖形學。
就像GeForce一樣 將人工智慧引入 世界, 人工智慧現在將 回去 並進行革命性變革 電腦 圖形 一切都已完成 一起。
嗯,今天,我是 我會給你看的 某種 未來。
這是我們的下一個 世代 圖形技術。
我們稱之為神經渲染, 融合, 3D融合 圖形 和人工的 智力。
這是DLSS 5。
看看吧。
我們馬上回來。
我們馬上回來。
這太不可思議了!
電腦圖形 活了過來。
那麼,我們做了什麼?
我們融合了可控 3D圖形, 事實真相 虛擬世界, 結構化資料。
記住這個字。
結構化資料 虛擬世界, 生成的世界。
我們結合了3D技術 圖形, 結構化資料 利用生成式人工智慧, 機率 電腦.
其中之一是 完全地 預測性的, 另一個, 機率性的, 然而高度 實際的。
我們將這些結合起來。
兩個想法, 將這兩者結合起來 想法, 透過控制 結構化資料 受控 完美, 然而,卻在產生 同時。
因此, 內容是 美麗的, 驚人的, 以及可控的。
融合的概念 結構化的 資訊 以及生成式人工智慧 將會重演 在某一行業中, 又一次 行業, 又一次 行業。
結構化資料 是基礎 值得信賴的人工智慧。
出色地, 這將 有點嚇人 位元.
我要翻頁了 溜滑梯 不要倒吸一口涼氣。
所以我們要… 完成這個 示意圖 其餘部分 時間。
這是我最好的作品。
滑動。
每次我問 團隊, 我最好的 滑動?
反覆地,這 是嗎?
他們說, 別這麼做,詹森。
別這麼做。
我說,不。
這些座位是 自由的 對你們中的一些人來說。
所以這就是你的 入場費。
所以這是 結構化資料。
你肯定聽過。
SQL, 火花, 貓熊, 快的, 其中一些 真的,真的 重要的, 非常大 平台。
雪花, Databricks 電子病歷 亞馬遜電子病歷系統 Azure Fabric, Google雲 BigQuery。
所有這些 平台 正在處理數據 幀。
這些數據框 是巨型電子表格 他們持有 生命中的一切 資訊.
這是 結構化數據, 事實 商業。
這是地面 真相 企業 電腦.
現在我們要… 有 人工智慧使用結構化 數據 我們最好 加速 活在白晝 脫離其中。
以前還好。
我們會的, 你知道, 當然, 我們會加速 結構化資料 這樣我們就可以 多做一些。
我們可以做到 更便宜。
我們可以做到 更頻繁地 天 並保留 公司 以極快的速度運行 更多的 同步方式。
然而, 將來, 接下來會發生什麼事?
發生 這些數據 結構 將會是 用過的 人工智慧 人工智慧正在發展 很多, 比我們快得多。
未來代理人 將會使用 結構化的 資料庫 也一樣。
進而, 當然, 非結構化的 資料庫, 生成式 資料庫.
此資料庫 代表著廣闊 多數 世界。
向量資料庫, 非結構化數據 PDF文件 影片, 演講, 全世界的 資訊, 約90% 所產生的內容 每年 結構不規則 數據。
到目前為止, 這些數據已經 完全沒用 走向世界。
我們讀過了, 我們把它放進了我們的 檔案系統 就這樣。
很遺憾, 我們無法查詢。
我們無法搜尋 它。
這很難做到 那。
原因在於 那 這是因為 沒有簡單的辦法 索引 非結構化的 數據。
你必須 理解 它的意義 它的目的。
所以現在, 我們有人工智慧來做這件事。
正如人工智慧能夠做到的那樣 解決 多模態 洞察力 以及理解, 你可以使用 同樣的 技術, 多模態 洞察力 和理解 去閱讀PDF文件 理解它 意義。
由此而來 意義, 嵌入到 更大的結構 我們可以搜尋 進入, 我們可以查詢。
英偉達創建 兩個基礎 圖書館, 就像我們一樣 創建 RTX 用於 3D 圖形。
我們創建 QDF 對於資料框, 結構化資料。
我們創建 QVS 適用於向量圖庫。
語意數據, 非結構化數據 你已經知道日期了。
這兩個平台 將會是 其中兩個最 重要平台 將來。
超興奮 觀察其採用情況 整個 網路, 這很複雜 網路 世界上 資料處理 系統。
原因在於 那 這是因為數據 加工 一直都在 很久。
因此, 太多不同的 公司 和平台 以及相關服務。
這花了我們 很久 深度融合 融入這個生態系。
我感到無比自豪 這項工作 我們正在做的事情 這裡。
而今天, 我們宣布 其中幾個。
IBM, 發明者 SQL, 其中最 重要的領域特定 語言 有史以來, 正在加速 Watson X 數據 帶有 QDF。
我們來看看 就這麼辦。
60年前, IBM推出 System 360, 第一個現代 平台 一般 電腦, 啟動 電腦時代。
然後是 SQL, 陳述句 語言 查詢數據 無需 電腦 待指示 一步一步來。
以及數據 倉庫, 每個 基礎 現代 企業 電腦.
今天, IBM 和 NVIDIA 正在重新發明 資料處理 人工智慧時代 透過加速 IBM Watson X 點 資料 SQL 引擎 使用NVIDIA GPU 計算庫。
數據 是事實 這賦予了人工智慧 語境和意義。
人工智慧需要快速 使用權 到海量數據 套。
今日CPU數據 加工 系統 跟不上。
雀巢製造 數千個供應 鏈 每天都要做決定。
他們的緩存命令 數據集市 聚合每個 供應, 命令, 和交付活動 全球 營運 覆蓋185個國家。
在CPU上, 雀巢煥新 數據集市 一天幾次。
隨著加速 Watson X 點數據 運行於 NVIDIA 顯示卡 GPU, 雀巢可以運行 在同一天 工作負荷 速度提高五倍 成本降低了 83%。
下一代運算 平台 已經到達。
加速 計算 那個時代 人工智慧.
NVIDIA 加速 資料處理 在雲端。
我們也加速 資料處理 本地部署。
如你所知, 戴爾是世界領先的 電腦系統 製造商, 他們也 是其中之一 世界的 領先的存儲 供應商 他們工作了 和我們一起 創建 戴爾人工智慧數據 平台 整合 QDF 和 QVS 創建 加速 數據平台
那個時代 人工智慧.
這是 例子 他們做了什麼 使用NTT資料。
速度大幅提升。
這是雲。
Google雲 以及谷歌雲 如你所知, 我們一直在努力 使用 Google Cloud 很長一段時間 時間。
我們加速 谷歌的 頂點人工智慧。
我們現在加速 BigQuery, 非常重要 框架 真的 重要的 平台。
這是 例子 我們的工作 一起 使用 Snapchat 我們減少了 它們的成本 計算 增長近 80%。
當你加速時 數據處理, 當你加速時 電腦, 你從中受益 速度, 你從中受益 規模, 但大多數 重要的是, 你還會得到 益處 成本。
所以所有這些 齊聚一堂 合而為一。
它最初是 被稱為摩爾定律。
摩爾定律 是關於獲得 表現 加倍 每隔一對 年。
這是另一種方式 也就是說, 只要 價格 仍然圍繞著 相同的 以及大多數計算機 仍然圍繞著 相同的, 你還會得到 兩倍 表現 每年 或者你正在減少 成本 計算 每年都是如此。
嗯,摩爾定律 已經用完了 蒸汽。
我們需要一個新的 方法。
加速 計算 允許我們 服用這些 巨大的飛躍。
正如你將看到的。
之後, 因為我們繼續 為了優化 演算法, 以及英偉達 是一種演算法 公司, 我們繼續 為了優化 演算法, 並且因為我們 抵達 非常大 以及我們的安裝 根據 非常大, 我們可以減少 計算成本, 增加 規模,
增加 速度 對所有人來說 持續不斷地。
這是谷歌 雲。
你可以看到這一點 圖案 我剛才提到了。
我只是想 給你看 三個版本 它。
NVIDIA 構建 加速 計算平台。
它有很多 頂部是圖書館。
我給了你三個 例如。
RTX就是其中之一。
QDF是另一個例子, QVS, 我們將向您展示。
還有一些。
這些圖書館位於 在我們的頂部 平台。
但歸根究底, 我們整合 進入世界 雲端服務 進入全球原始設備製造商 (OEM) 市場, 並且一起, 以及其他平台 我會向你展示的, 一起, 我們能夠到達 世界。
這種模式, 英偉達 Google雲 Snapchat, 將重複 反覆, 而且它有點像 看起來 像這樣。
所以這是其中之一 例子, 英偉達與Google 雲。
我們加速了頂點 人工智慧.
我們加速 BigQuery。
我們加速… 我感到無比自豪 這項工作 我們已經做到了 與 Jaxx 和 XLA 合作。
我們太棒了 基於 PyTorch。
我們是唯一一家 加速器 在世界上 那真是難以置信 在 PyTorch 上 令人難以置信 在 Jaxx 和 XLA 上。
以及顧客 我們支持的 十進位 CrowdStrikes, 彪馬 Salesforce, 它們不是我們的 顧客, 但他們是 顧客, 我們的開發人員 我們已經 融合的 英偉達 科技 進入 然後我們就可以 降落在雲端。
我們的關係 使用雲端服務 供應商 本質上 我們帶來 顧客 對他們來說。
我們整合 我們的圖書館, 我們加速 工作負載, 我們降落了 這些顧客 在雲端。
所以, 如你看到的, 我們的大部分雲 服務 供應商 喜歡與…一起工作 我們, 而且他們總是 向我們提問 著陸 下一位顧客 在他們的雲端。
我只想 特此告知, 有很多 顧客。
我們將要 加速 所有人。
所以, 會有很多。
還有很多 顧客 這將能夠 降落在你的 雲。
請耐心等待 和我們一起。
所以, 這是谷歌 雲。
這是AWS。
我們一直在努力 與 AWS 長期合作 時間。
其中之一 地區, 其中一件事 我超級興奮 大約今年 我們要走了 帶來 OpenAI 遷移到 AWS。
所以, 它將開車 巨大的 消耗 雲端運算 在 AWS 上。
它將 擴張 範圍 並擴大 計算 OpenAI 的。
正如你所知, 他們完全 計算受限。
所以, AWS 我們加快電子病歷的開發, 我們加速了SageMaker的開發, 我們加速BitRock的發展。
英偉達擁有 融合的 非常深入 接入AWS。
他們是我們第一批 雲端合作夥伴。
微軟 Azure。
英偉達A100 超電腦 是第一個 我們建造 是為英偉達準備的。
第一個 我們安裝 當時在 Azure 工作。
而這導致了 大 成功的 合夥 與 OpenAI 合作。
但我們一直 在職的 使用 Azure 持續了相當長一段時間 時間。
我們加速 Azure雲端。
現在, 他們的AI鑄造廠 我們深度合作 和。
我們加速 必應搜尋。
我們與他們合作 在 Azure 區域上。
這是其中之一 區域 那真是太不可思議了 重要的 我們繼續 擴展人工智慧 整個 世界。
中的一個 能力 我們提供 保密 電腦.
在那 機密的 電腦, 你想製作 當然 甚至 操作員 看不到你的 數據。
甚至操作員 無法觸摸 或查看您的模型。
機密的 計算 以及英偉達的GPU 是第一批 在世界上 這樣做。
現在可以了 支援 機密的 計算 並受到保護 部署 這些 有價值的 開放人工智慧模型 和人擇 模型 穿過雲層 和不同的 地區 這一切都是因為 我們的機密資訊 電腦.
機密的 計算 非常重要。
這裡還有… 例子 我們有 不同的客戶 我們與之合作。
Synopsys公司 一位優秀的合作夥伴 我們的, 我們正在加速 他們所有的EDA 以及 CAE 工作流程。
然後我們降落 在 Microsoft Azure 上。
我們是甲骨文公司的 首位人工智慧客戶。
大多數人會 曾想過 我們是他們的第一批客戶。
供應商。
我們是他們的第一批客戶。
供應商也是。
但我們是他們的 第一的 人工智慧客戶。
我為此感到非常自豪 事實 我解釋過 人工智慧雲 致Oracle 第一次。
而我們就是他們的 第一位顧客。
自那以後, 他們真的 已脫下。
我們已經著陸了 一大堆 我們的合作夥伴 那裡。
凝聚和煙火 當然, 非常著名的, OpenAI。
絕佳的合作夥伴關係 使用 CoreWeave。
他們是世界上的 第一的 AI原生雲。
一家公司 建造 只有一個 單一目的 供應, 用於託管 GPU 時代 加速 計算 出現 並主持 適用於人工智慧雲端。
他們有一些 非常棒的客戶 而且它們還在成長 難以置信。
中的一個 平台 我相當 興奮 是Palantir和 戴爾。
我們三個 公司 成功了 可能的 站起來 一種全新的類型 AI平台, 帕蘭提爾本體論 平台, 一個人工智慧平台。
我們能夠站起來 向上 這些平台 在任何國家, 在任何氣隙中 地區, 完全本地部署, 完全現場操作, 完全在 場地。
人工智慧可能是 已部署 字面上地 到處。
沒有我們 機密的 計算 能力, 我們無法 建造 從頭到尾 系統 以及提供 整個 加速 計算 和人工智慧堆疊 來自數據 加工, 無論是 向量 或結構, 一直到人工智慧, 它不會有
有可能。
我想展示 你 這些例子。
這是我們的特別之處 在職的 關係 與世界各國 雲端服務 供應商。
還有很多, 嗯,他們全都一樣。
就在這裡。
我明白了 益處 看到他們 在展位參觀期間, 真是太… 太令人興奮了。
我只想 感謝 你們所有人 感謝他們的辛勤付出。
英偉達擁有什麼 完畢 就是這樣。
而你將會 這個主題 反覆。
英偉達是 垂直方向 融合的。
世界首家 垂直方向 融合的 但水平方向 開放式公司。
原因 這是必要的 很簡單。
加速 計算 不是晶片 問題。
加速 計算 這不是系統 問題。
加速 計算 缺少一個單字。
我們從來不說 它不再是了。
應用, 加速度。
如果我能做到 計算機運行 一切都更快了, 那叫做中央處理器(CPU)。
但那已經過去了 沒勁了。
我們唯一的出路 加速 申請正在進行中 向前 並繼續 帶來 速度大幅提升, 巨大的成本 減少, 是透過 應用 或特定領域 加速度。
我把它弄丟了 短語 在前面, 因此, 它就這樣變成了 加速 電腦.
這就是… 原因 為什麼選擇英偉達 必須是圖書館 圖書館之後, 域名接送域名, 垂直 垂直的。
我們是一家垂直整合型企業 融合的 計算機公司。
沒有其他辦法 方式。
我們必須 理解 應用程式.
我們必須 理解 域名。
我們必須 理解 從根本上 演算法.
我們必須 弄清楚 如何部署 演算法 無論 設想 它想成為 已部署, 無論是數據 中心, 雲, 本地部署, 在邊緣, 在機器人系統上。
所有這些 計算 系統是 不同的。
最後, 系統和 晶片.
我們是垂直的 融合的。
是什麼讓它如此特別 威力無比, 以及原因 你都看到了。
幻燈片, 這是因為英偉達 水平方向 打開。
我們會努力工作。
整合 英偉達的技術 變成任何東西 平台 您希望我們 融入其中。
我們為您提供 軟體.
我們為您提供 圖書館。
我們與…整合 您的技術 這樣我們就可以 帶來 加速 計算 致所有人 世界。
出色地, 此 GTC 真是太棒了 示範 那。
你知道, 大多數時候, 大多數時候, 你會看到我說話 關於這些 垂直方向, 我會用一些 例如。
但在每一個 案件, 無論是 汽車產業 順便一提, 金融服務 最大 百分比 與會者 在本 GTC 中 來自 金融的 服務業。
我知道。
我希望如此。
開發人員, 不是交易員。
夥計們。
有一件事 我想說。
所以, 觀眾席 代表英偉達的 生態系統 在我們上游 供應鏈 以及下游 我們的供應鏈。
我們努力工作, 我們思考著我們的 供應鏈 上游和 下游。
真是太… 激動人心 那 我們整個 上游供應 鏈 去年, 無論如何 無論 你今年50歲了。
公司, 我們有一位70歲的老人 公司, 我們有一個150年歷史的 公司 他們現在是以下人員的一部分 英偉達的供應 鏈 並與…合作 我們 上游或 下游。
去年, 你有你的記錄 年。
難道不是嗎?
恭喜。
我們接下來要… 這裡面有些東西。
這是 開始 非常, 非常大。
所以, 如果你看一下 加速 電腦, 我們現在已經設定 計算 平台, 但為了我們 啟用設定 計算 平台, 我們需要有 領域特定 圖書館 解決 非常重要 問題 在每個 垂直 我們正在解決的問題。
你看到我們 解決 每一個 這。
自動駕駛汽車 我們的影響力, 我們的廣度, 我們的影響, 極好的。
我們有一條賽道 那。
金融服務 我剛才提到了。
演算法交易 正在從 古典機器 學習 具有人類特徵 工程 稱為 量化分析師確實這麼做了。
現在 超電腦 研究大規模 金額 數據, 發現洞見 並發現 圖案 單獨一人。
所以, 這即將發生 透過 它的深度學習 及其變壓器 片刻。
醫療保健正在走向 他們 聊天 GPT 時刻。
一些真的 令人興奮的工作 我們到了。
我們擁有一個很棒的 主題演講環節在此。
我們擁有一個很棒的 主題演講環節, 金伯利鮑威爾的 正在做 精彩的主題演講 追蹤 用於醫療保健。
我們正在談論的是 人工智慧物理學 或人工智慧生物學 用於藥物發現。
人工智慧代理 為客戶 服務 和支持 診斷。
當然, 物理人工智慧 機器人系統。
所有這些不同的 人工智慧向量 有不同 平台 那家英偉達 提供。
工業的, 我們完全 重置 並開始 規模最大的建設 人類歷史上。
而且大部分 世界各行各業 建構人工智慧 工廠, 晶片 植物, 電腦 植物 有代表 今天在這裡。
媒體與 娛樂, 當然是玩遊戲啦。
即時人工智慧 平台 這樣我們就可以 翻譯 和廣播 以及現場比賽 以及即時視訊。
大量的 它 將會增強 利用人工智慧。
我們有一個平台 名為 Holoscan。
量子, 共有35個 不同的 這裡的公司 與我們一起建設 新一代 量子GPU 混合系統。
零售和消費品 使用 NVIDIA 對於供應鏈而言, 創造主動性 購物系統 人工智慧代理 為客戶 支持。
很多工作 這裡已經完成了。
35兆美元 行業。
機器人技術 50兆美元 產業 製造業。
英偉達一直 在職的 在這個區域 已經十年了, 三號樓 電腦, 基本 電腦 建造所必需 機器人系統。
我們已整合 工作 字面上 每一個 公司 我們知道 機器人製造。
我們有110台機器人 這裡是演出現場 然後是電信業。
差不多大 作為世界 IT產業 大約兩兆 美元 我們當然看到了。
基地台 到處。
這是其中之一 世界的 基礎設施。
那是 基礎設施 最後一個 世代 電腦.
該基礎設施 將會得到 徹底重塑 以及原因 那 很簡單。
那個基地台, 也就是說, 它只做一件事, 這是基礎 車站, 將會是 人工智慧 基礎設施 平台 未來。
人工智慧將運行 在邊緣。
所以有很多, 很多很棒的, 精彩的討論 那裡 以及我們的平台 那裡 被稱為 Arial 或 AI RAM。
大型合作夥伴關係 與諾基亞合作, 大型合作夥伴關係 使用 T-Mobile 以及其他許多人。
核心 我們業務的, 一切 我剛才提到了, 計算平台 但是非常 重要的是, 我們的 CUDAX 庫。
我們的 CUDAX 庫 是演算法, 演算法 英偉達發明的。
我們是演算法 公司。
這就是原因。
我們很特別。
這就是原因。
有可能 對我來說,能夠 深入每一個 單身的 其中之一 行業, 想像未來, 並擁有世界上的 最好的 電腦科學家 描述並解決 問題, 重構它, 重新表達一下, 並將其變成 圖書館.
我們有很多。
我認為我們已經… 在這個節目中, 我們宣布 一百, 一百座圖書館, 70家圖書館 可能有40款車型。
僅此而已 在展會上。
我們正在更新 這些 一直如此。
我們正在更新它們 一直如此。
圖書館 是皇冠上的珠寶嗎?
我們公司。
正是這一點造就了它。
可能的 對於該平台而言, 計算 平台, 待激活 在服役 解決 問題, 產生影響。
其中最大的一個, 其中最 重要的 我們圖書館 曾經創造過, CU-DNN, CUDA深度神經網絡 網路。
它完全 革命性的 人造的 智力, 引發宇宙大爆炸 現代人工智慧。
讓我來給你展示一下。
一段短片 關於 CUDAX。
20年前, 我們建置了CUDA, 單一 建築學 加速 電腦.
今天, 我們已經重新發明了 電腦.
一千個CUDAX 圖書館 幫助開發者 取得突破 在各個領域 科學和 工程。
CUopt 決策 最佳化.
膠印 用於計算 光刻技術。
使用 DSS 對於直接稀疏 解題者。
CU 等變性 面向幾何感知 神經網路。
艾瑞爾 用於人工智慧記憶體。
經 對於可微分的 物理。
帕拉磚 用於基因組學。
在他們的基金會 是演算法, 他們 很漂亮。
劇終
劇終
劇終
劇終 劇終 劇終
劇終 劇終
劇終 劇終
劇終 劇終
劇終 劇終
劇終 劇終
劇終 劇終
劇終 劇終
劇終 劇終
劇終 劇終
劇終 劇終
劇終 劇終 劇終
劇終 劇終 劇終 劇終 劇終 並建造和 創建令牌和 產生令牌,或 他們將要 整合,添加 價值 代幣是 可用創建
由人類學和 OpenAI 及其他公司。
所以就是這樣 產業 在這方面有所不同 多種不同的方式, 但有一件事 這一點非常清楚。
影響 他們正在製作的, 超值 他們是 已經交付 相當 有形的,人工智慧 所有本地人 因為我們進行了重新發明 電腦.僅此而已。
電腦.僅此而已。
就像在電腦上一樣 革命, 一大堆 新公司是 就像是被創造出來的一樣 在網路時代 革命,整個 束 這些公司是 已創建,並且 移動雲,一個 一大堆 公司是 已創建。每一個
已創建。每一個 他們中有許多人 自身的標準,以及 我們正在談論的是 其中之一 僅符合這些標準 發生了, 難以置信 很重要。而且這一點
很重要。而且這一點 我們這一代,也 我們擁有自己的大型 數量非常多, 非常特別 公司。我們
公司。我們 重新發明 電腦.它
電腦.它 合乎邏輯 將會有 一批全新的 非常重要 公司,後果 公司 世界的未來。
Google、亞馬遜 Metas,後果 擁有 由此而來 最後一次計算 平台轉換。
我們現在位於 新篇章的開始 平台轉換。但是
平台轉換。但是 發生了什麼事 最後幾 年?
嗯,我們一直 看著,就像你 我知道,我們一直 深入研究 學習和 從事人工智慧相關工作 宇宙大爆炸 現代人工智慧。我們曾經是
現代人工智慧。我們曾經是 就在那裡 地點,我們已經找到了。
一直在推進這項工作 欄位 相當長一段時間了。
但為什麼是最後一個呢?
兩年?什麼?
發生在 過去兩年?
嗯,有三件事。
當然是 ChatGPT 了。
啟動生成 人工智慧時代。它能夠
人工智慧時代。它能夠 不僅如此 理解, 感知和 明白了。是的
明白了。是的 也能 翻譯和 產生, 世代 獨特的內容。我
獨特的內容。我 給你看的 生成式融合 人工智慧與計算機 圖形,以及它 帶來了電腦 將圖像賦予生命。
你們這些人,就 每個人都 世界應該是 使用 ChatGPT。
我知道我每天都用它 一個早晨。
所以,ChatGPT 就是這樣誕生的。
生成式人工智慧 時代。第二個時代,由
時代。第二個時代,由 產生的方式 計算 與我們的方式相比 過去常常這樣做 計算機,不是這樣的。
它是生成式人工智慧 是一種能力 軟體, 但它有 深刻改變 計算是如何進行的 完成。正在計算
完成。正在計算 曾經是基於檢索的, 現在是生成式的。
記住這一點。
我說話時腦中想著這件事 某些 事情,你會 明白為什麼 正是如此。
我們的一切 要做的是 改變方式 計算機是 架構,如何 計算機是 前提是,如何 計算機正在發展 待建成, 以及什麼是 意義 計算 完全?生成式
完全?生成式 AI,2023年,22年底, 2023年。下一個,
2023年。下一個, 推理人工智慧,01, 然後, 以03號起飛。
允許的推理 它促使人們反思, 使它能夠思考 對自身而言,允許 將其納入計劃。
分解問題 並分解 問題在於它無法解決 了解 步驟或部分 它能理解。
它可能會接地 本身就基於研究。
01 生成 人工智慧值得信賴 以事實為依據。
這導致了 ChatGPT 直接起飛了, 那真是一次非常… 非常重要的時刻。
輸入量 那是代幣 必要 生產,以及 產出量 它生成的代幣 為了推理。
該模型是 稍微大一點。
當然,你知道的。
你可能會有很多 更大的型號。
01 型是 稍微大一點, 沒大多少。
但它的輸入標記 用於上下文 及其輸出 思考的象徵 增加 數量 計算 非常大。然後
非常大。然後 CloudCode 來了, 第一個智能體模型。
它能夠讀取 文件、代碼、 編譯它,測試它, 評估一下,然後走 返回並迭代 它。 CloudCode 有
它。 CloudCode 有 革命性的 軟體 工程學,正如所有 你知道的。
100% 的 NVIDIA 是 使用組合 的,或者經常 他們三個 CloudCode、Codex、 以及遊標,全部 超越英偉達。
沒有一個 軟體工程師 今天誰不是 由一人或 許多人工智慧代理 幫助他們編寫程式碼。
CloudCode 完全地 徹底改變了。它
徹底改變了。它 新的轉折點, 以及第一個 時間,你不用問 它,人工智慧,什麼,哪裡, 何時,如何。
你提出問題,然後創造出來。
去做,去創造。你問
它使用工具, 請結合具體情況來看。
讀取文件。
它能夠主動地 分解 問題,原因 思考一下。
就在上面。
它能夠解決 問題,以及 實際執行 任務。
一個能夠 感知成為 一個人工智慧 生成,人工智慧 這可能會產生 變成了人工智慧 人工智慧可以推理 這或許可以解釋 現在變成了人工智慧 實際上可以 確實有效,非常有效 高效工作。
數量 計算中的 過去兩年,我們 要知道,每個人都 這個房間裡的人都知道 計算 對英偉達的需求 GPU已關閉 圖表。
現貨價格飛漲。
你找不到一個 如果你嘗試過GPU的話, 然而,在 同時,我們 GPU 出貨。
數量驚人 並要求 一直持續下去 向上。
這其中是有原因的。
為此,這 根本性轉折。
最後,人工智慧能夠 做生產性工作 工作,因此, 轉折點 推論點 已經到達。
人工智慧現在也需要思考了。
為了思考, 這需要推理。
現在只能靠人工智慧了。
為了做到這一點,它 需要進行推論。
人工智慧需要閱讀。
為了做到這一點, 這需要推理。
它必須合乎邏輯。
這需要推理。
人工智慧的各個方面, 每次都是這樣 要思考,就必須 原因。
必須如此。
它必須生成 代幣。
這需要推理。
早就過去了。
現在正在訓練。
它在田野裡 推理。
因此,推論是這樣的。
轉折點有 到達的。
在當時 數量 代幣數量 計算 必要的, 增加 大約10,000 次數。
現在,當我合併 這兩個事實 因為在 過去兩年, 計算需求 工作已經結束了 成長了10000倍。
人們都聽說了 我說,我相信 計算 需求已 增加 1 百萬次 過去兩年。
這是一種感覺 我們每個人都有的。
這是一種感覺 每個新創公司都有。
就是那種感覺 開放人工智慧擁有這一點。
就是那種感覺 人用公司擁有的。
如果他們能… 獲得更多產能 它們可以生成 更多代幣。
他們的收入 會上漲。
更多人可能 用它。
更高級的, 人工智慧越智能 可能會變成這樣。
我們現在就處於這個階段。
正飛輪 系統。
我們已經到達 那一刻。
語調, 推理轉折 已經到達。
去年,在這個時期 時間,我說過 我當時站的地方 那一刻, 我們看到了大約500美元 十億美元,我們看到了500 數十億個非常 高信心
需求與購買 訂單 布萊克威爾和 魯賓執教至2026年。
我最後說了那句話。
年。
現在,我不知道 如果你們覺得 同樣的方式,但金額為 500 美元 十億是一個 大量的 收入。
沒人覺得驚艷。
我知道你為什麼 不以為然。
因為你們所有人 創紀錄的一年。
我來這裡是為了 沒錯。
現在我所處的位置, 短短幾個月 GTC-DC 之後, 一年後 GTC,就在這裡 就我目前所處的位置而言, 2027年透視 至少1兆美元。
那麼,這是否意味著 有意義嗎?
這就是我 打算花掉 其餘時間 談論。
事實上,我們是 篇幅會很短。
我確信 計算需求 會高很多 比那還要糟。
而且還有 原因何在?
所以,第一件事 是的,我們做了很多 最後的工作 年。
當然,正如你 知道,2025年是英偉達的 推斷年份。
我們想製作 確保不僅 我們擅長什麼?
培訓和培訓後, 我們當時 非常擅長 每一個階段 人工智慧, 因此 投資 已經製造出來了, 以下方面的投資 我們的基礎設施, 可以擴充 只要他們 想使用 它。
以及有效壽命 英偉達的 基礎設施 會很長,而且 因此,成本 將會非常 低的。
你的時間越長 可以用它, 降低成本。
毫無疑問 在我心中。
NVIDIA 系統是 最低成本 基礎設施 人工智慧可能會受到影響 基礎設施 世界。
所以,第一部分 去年,其中一部分是 一切都與人工智慧有關 用於推斷。
它推動了這一切。
轉折點.
同時,我們 我們非常高興 去年,人本主義 已經加入英偉達。
那個 MSL,Meta SL, 已選擇NVIDIA。
同時, 同時,作為 收藏品,作為 這個團體 佔三分之一 世界人工智慧 計算,開源 模型。
開源模型 已接近 邊疆,以及 它確實是 到處。
還有英偉達,正如你所說 知道,今天,我們是 唯一平台 在當今世界 運行所有 人工智慧的單一領域 在每一個 其中之一的人工智慧 模型 在語言和方面 生物學和 電腦圖形學 電腦視覺和 演講。
蛋白質和 化學品、機器人 否則,邊緣 或云,任何 語言。
英偉達的 建築是可互換的 儘管如此, 我們是 對所有人來說都不可思議 就是那件事。
這使我們能夠 成本最低, 最高 信心平台。
因為當你 建造這些 系統,正如我 提及, 兆美元 是一個巨大的 數量 基礎設施。
你必須擁有 完全自信 那兆 你是美元 放下 將會被利用, 性能優異, 將會非常 經濟實惠, 並具有實用價值 壽命盡可能長 你可以看到。
該基礎設施 投資你 可以在NVIDIA平台製作, 你可以用…製作 完全信任。
我們現在已經證明 那。
這是唯一的 基礎設施 你的世界 可以去任何地方 在世界上 並用…建造 完全信任。
你想把它放進去 在任何 雲,我們是 對此我感到非常高興。
你想把它放進去 在本地部署方面,我們是 對此感到高興。
你想把它放進去 在任何國家 無論身在何處,我們 很高興 支持你。
我們現在是一個 計算平台 它運行著所有人工智慧程式。
現在,我們的業務 已經開始了 為了證明這一點。
我們業務的60% 是超大規模資料中心, 排名前五的超大規模資料中心營運商。
然而,即使 在那層之上 五家超大規模資料中心營運商, 其中一些是 內部人工智慧 消耗。
內部人工智慧 消費,真的 重要的工作, 就像Rexxus一樣 從 推薦系統 表格和 協作 過濾和 內容過濾。
它正朝著 深度學習和 大語言 模型。
搜索,移動到 深度學習, 大語言 模型。
幾乎所有這些 不同的超大規模 工作負載現在 移動,轉移, 工作量 NVIDIA GPU 非常出色 在。
但除此之外, 因為我們工作 每個人工智慧實驗室, 因為我們工作 對於每個人工智慧來說, 我們加速一切 人工智慧模型,以及 因為我們有一個 大型生態系統 人工智慧原住民 我們與那家公司合作。
我們可以帶到 雲。
那筆投資,沒有 無論多大, 無論速度有多快, 該計算將 被消耗掉。
這代表 占我們業務的 60%。
其餘40%是 到處都是。
區域雲層, 主權雲, 企業, 工業的, 機器人技術、邊緣運算、大數據 系統, 超級計算 小型系統 伺服器,企業 伺服器.
數量 系統,太棒了。
人工智慧的多樣性 也是它的 彈力。
觸及範圍 人工智慧的本質在於它的 彈力。
沒有 這是個問題 不是一個應用程式 技術。
現在 基本的。
這絕對是 新的計算 平台轉換。
我們的工作是… 繼續前進 這項技術。
以及最 重要的事情 我提到的 去年是最後一年 那一年是屬於我們的一年 推理。
我們致力於 一切。
我們帶了一個巨人 機會與重塑 當霍珀在 它的鼎盛時期 當時正在做飯。
我們決定… 漏斗架構, MVLink 8, 必須被帶到 下一個階段。
我們徹底重新設計了架構 系統,分解 計算 整個系統, 並創建了 MVLink 72.
事情就是這樣 它的建造方式 製造的, 它的程序設定方式是這樣的。
完全改變了。
Grace Blackwell,MVLink 72,是一場豪賭。
這並不容易。
適用於任何人。
還有很多我的 這裡的合作夥伴 房間,我想 謝謝大家 感謝辛勤工作 你們做到了。
謝謝。
MVLink 72,MVFP4, 不僅僅是FP4 精確。
FP4是一個整體 不同類型的 張量核心和 計算單元。
我們已經證明 現在我們可以 推斷 MVFP4 無損失 精確,但是 大幅提升 性能和 能源效率。
我們也曾 能夠使用MVFP4 用於培訓。
所以,MVLink 72,MVFP4, 發明 Dynamo、TensorRT、LLM、 一大堆 新演算法。
我們甚至建造了一個 超電腦 請幫助我們優化 內核並幫助我們 優化我們的 完整堆疊。
我們稱之為DGX 雲。
我們投資了 數十億美元 超級計算 能力,請幫助我們 創建內核, 該軟體 做出推論 可能的。
結果 一切都匯聚到了一起。
人們過去常常 告訴我,但是詹森, 推理就是這樣 簡單的。
推理是 極難。
推理是 極難。
它也是終極的 重要,因為 它驅動著你 收入。
所以這就是… 結果。
這是半分析的結果。
這是最大的, 最全面 人工智慧的席捲 推論 以前有人做過嗎?
而你所看到的 左邊這裡, 在這一邊,在 這邊是 每瓦代幣數。
每瓦代幣數為 重要,因為 每個資料中心, 每一個 工廠,由 定義是 電力受限。
一吉瓦 工廠永遠不會 變成兩個人。
這是物理上的。
受限。
原子定律。
法律 身體素質。
所以,那1吉瓦 資料中心,你 想開車 最大數量 代幣,即 生產, 該產品 工廠。
所以你想成為 除此之外, 曲線高至 你想要。
這就是x軸。
是互動性, 速度 推斷, 每種速度 推理。
你越快就能 推斷, 你的速度可以更快, 當然,請回覆。
但非常 重要的是, 你可以更快地 推斷, 模型越大, 更多背景資訊 您可以處理, 你擁有的代幣越多 可以仔細考慮。
這個軸是 與聰明程度相同 人工智慧.
所以這就是… 吞吐量 人工智慧.
這就是智慧所在 人工智慧.
注意,更聰明的 人工智慧,越低 您的吞吐量。
有道理。
你在想 更長。
好的?
所以這個軸是 速度。
我要… 再回頭看看這個。
這很重要。
這就是我 折磨你們所有人。
但這太過了 重要的。
所有首席執行官 世界啊,你看著吧。
每一位首席執行官 世界將研究 他們的業務來自 現在,我正走在路上。
即將描述。
因為這是 你的代幣工廠。
這是你的人工智慧 工廠。
這是你的 收入。
毫無疑問 關於那件事 向前。
所以這就是… 吞吐量。
這是 智力。
每瓦性能更佳 給定的功率 資料中心 更高的吞吐量 你擁有的代幣越多 可以生產。
這邊是 成本。
注意,NVIDIA是 最高 表現 世界。
沒有人會 對此我感到很驚訝。
他們會是 感到驚訝 事實上,在一個 一代,而 摩爾定律 已經給我們, 透過晶體管, 50%,兩次。
摩爾定律 可能會給我們 一又二分之一 倍 表現。
你會有 霍珀的預期 H200,一和 高出一半。
沒有人會… 預計35次 更高。
我去年說過, 此時此刻, 英偉達的恩典 Blackwell,NVLink 72,是35倍 每瓦穿孔率。
沒人相信我。
然後是半分析 出來了,迪倫 帕特爾引用了一句話。
他指責我 沙袋掩埋。
他指責我 沙袋掩埋。
他說,詹森, 沙袋掩埋。
實際上是50 次數。
他說的沒錯。
他說的沒錯。
因此,我們的成本 每個代幣...
每個代幣...
我們每個代幣的成本 是最低的 世界。
無可匹敵。
我之前說過, 如果你有 架構錯誤, 即使是免費的, 它不便宜。
足夠的。
原因在於 那是因為沒有 無論發生什麼, 你仍然需要 建造一座千兆瓦的 數據中心。
你仍然需要 建造一座千兆瓦的 工廠。
還有那1000萬千瓦 工廠,15 年,攤銷 橫跨,那千兆瓦 工廠大約40美元 十億。
即使你放 什麼都沒有,售價40美元。
數十億美元。
你最好趕緊出發 你肯定放了 最好的電腦 該系統 這樣你 可能擁有最好的 代幣成本。
英偉達代幣成本 是世界一流的。
基本上,不可觸碰 眼下。
原因在於… 事實的確如此。
極致協同設計。
所以,我非常 很高興他給他取了這個名字 我們...
我們...
那裡有一隻猴子 國王,象徵性的國王。
嗯,我們全部接受 我們的軟體,作為 我跟你說過,我們 垂直方向 整合,但我們 水平打開。
我們是垂直的 一體化, 水平打開。
我們整合了所有內容 我們的軟體和 我們所有人 然而,科技 我們可以把它打包。
將其整合起來 進入世界 推理服務 供應商。
這些公司 成長速度非常快。
它們長得真快 快速地。
煙火,琳恩是 在這裡,我們在一起。
他們只是 正在成長 速度快得驚人。
一百次 去年。
它們是像徵性的。
工廠。
以及 有效性 性能和 代幣成本 生產 能力 他們的工廠是 對他們來說,一切都是那麼重要。
這就是… 發生了。
這是...
我們更新了他們的 軟體相同 系統和通知 它們的令牌速度。
極好的。
區別, 在英偉達之前 已更新所有內容 以及我們所有人 演算法和 軟體和所有 這項技術 我們運用, 大約700個代幣 每秒,平均 接近5000人, 高出七倍。
所以這就是… 不可思議的力量 極致協同設計。
我之前有提到過。
重要性 工廠。
這是 重要性 工廠。
您的資料中心, 它曾經是一個 資料中心 文件。
現在這裡是一家工廠 產生令牌。
您的工廠是 有限 什麼。
大家都在看 土地、電力 和貝殼。
一旦你把它建好了, 你就是力量 有限的。
在那項權力範圍內 有限的 基礎設施,你 更好地製作 非常肯定你的 推理, 因為你知道 推理是你的 工作負載和令牌 你的新 商品, 該計算是 你的收入,就是 你想製作 確定 建築就像 優化如下: 能。
將來, 每個CSP, 每一個 電腦公司 每一朵雲 公司, 每一個人工智慧 公司,每一家 單一公司 句號,即將結束 思考 他們的代幣 工廠 效力。
這是你的 工廠位於 未來。
原因何在?
我知道那是 因為每個人 這個房間裡有 供電 智力。
未來, 那種智能 將會增強 按代幣。
讓我來給你示範一下。
我們是如何走到這一步的。
2016年4月6日, 十年前,我們 推出了DGX-1, 世界首家 電腦設計 用於深度學習。
八塊 Pascal GPU 與……有關 第一代NV-Link。
170 兆次浮點運算 一台電腦。
世界首家 電腦設計 面向人工智慧研究人員。
有了Volta,我們 引入了NV-Link 轉變。
連接了 16 個 GPU 完全的,全部的 頻寬, 作為一個整體運作 巨型GPU。
一大步 向前,但模型 尺寸繼續 生長。
資料中心 需要成為一名 單一單元 電腦.
所以梅拉諾克斯加入了 英偉達。
2020年,DGX-A100 SuperPod 變成了 第一代GPU 超電腦 結合規模化 橫向擴展 建築學。
用於擴展規模的 NV-Link 3, Kinect-X6,以及 量子無限帶 用於橫向擴展。
然後是霍珀, 首款搭載 FP8變壓器 引擎 啟動生成式 它就在那裡。
NV-Link 4、Kinect-X7、 Bluefield 3 DPUs, 第二代 InfiniBand 的工作原理。
它徹底改變了 電腦.
布萊克威爾重新定義 人工智慧超級運算 系統架構 採用 NV-Link 72。
連接了72個GPU 由 NV-Link Spine 提供。
每 130 太字節 其次,所有的一切 頻寬。
計算追蹤 整合佈萊克威爾 GPU、Grace CPU、Kinect-X8、 以及 Bluefield 3。
橫向擴展運行超過 Spectrum 4 乙太網路。
三種縮放方式 法律全面生效 訓練前、訓練後 以及推理,以及 現在,智能體系統, 計算需求 持續成長 呈指數級增長。
接下來是維拉·魯賓。
專為…而設計 每個階段 人工智慧代理。
推進每一項 計算機支柱, 包含CPU在內 儲存、網路、 以及安全。
維拉·魯賓 NV-Link 72.
3.6 exaflops 的 計算。
每 260 TB 其次,所有的一切 NV-Link頻寬。
引擎增壓 能動性的時代 人工智慧.
Vera CPU機架。
專為 編曲和 代理式工作流程。
STX機架。
人工智慧原生儲存 由 Bluefield 構建 4.
橫向擴展 Spectrum X 共包裝 光學。
增加能量 效率和 彈性。
以及令人難以置信的 新增內容。
Grok 3 LPX 機架。
緊密相連 致維拉·魯賓。
Grok 的 LPU 的 海量片上SRAM。
代幣加速器 已經 速度快得驚人 維拉·魯賓。
總共 35 次 更高的吞吐量 兆瓦。
新維拉·魯賓 平台。
7個晶片。
5 架秤 電腦.
1. 革命性的人工智慧
超電腦 人工智慧代理。
4000萬次 更多計算。
僅僅10年。
現在,在好的方面 以前的日子,當我 霍珀會說, 我會舉起一個 晶片.
那隻是 可愛。
這是維拉·魯賓。
當我們想到維拉… 當我們想到維拉時 魯賓,我們認為 整個系統。
垂直方向 融合的。
完全與 軟體.
端對端擴充。
優化為一個 巨大的系統。
原因在於… 專為代理商設計 系統非常 清除。
因為經紀人… 當然,最 重要的工作 這是在思考 大語言 模型。
大語言 模型即將 變得更大 越來越大。
它將 產生更多和 更多代幣 迅速地。
所以它可以思考 更快一些。
但它也必須 存取記憶體。
它會猛烈撞擊 憑記憶 難的。
KV緩存。
結構化資料。
QDF。
非結構化資料。
QVS。
將會是 猛擊 儲存系統 真的很難。
這就是原因 我們為何進行重塑 儲存系統。
它還將 使用工具。
與人類不同 更 能夠容忍較慢的速度 計算機,人工智慧想要 成為…的工具 盡快。
這些工具,網絡 瀏覽器中 未來,他們可能 也可以是虛擬電腦 在雲端。
這些電腦必須 是...
是...
還有那些電腦 必須盡快 盡可能。
我們創建了一個品牌 新CPU。
全新CPU 這是為…而設計的 極高 單執行緒 表現。
極高 數據輸出, 非常擅長 數據處理, 以及極高的能量 效率。
這是唯一的數據 中央 CPU 使用LPDDR5的世界, LPDDR5,以及 令人難以置信的單線程 性能和 每項績效 無與倫比的功率。
所以,就是這樣… 我們建造了它 它可能 以及其他所有人 這些架子用於 代理處理。
就是這樣。
這就是恩典 布萊克威爾...
布萊克威爾...
不,維魯賓。
它在哪裡?
這裡是。
好的?
這就是維裡魯賓 系統。
請注意,由於 上次是100%。
液冷式。
所有的電纜 走了。
過去需要什麼 安裝需要兩天時間 現在需要兩個小時。
極好的。
所以, 製造週期 時間會… 大幅減少。
這也是一個 那台超級計算機 冷卻方式是… 它被熱冷卻 水,45度, 這需要 壓力減輕 資料中心 需要所有這些 成本和所有 那種能量是 用於冷卻 數據中心和 使其可用 對於該系統而言。
這就是秘密 醬。
這是唯一的… 我們是唯一一家 公司 擁有世界 今天建造的 第六,第六 世代規模化 切換系統。
這不是乙太網路。
這不是InfiniBand。
這是 MVLink。
這是第六個 MVLink 一代。
這簡直太瘋狂了 很難做好。
這簡直難到令人髮指 必須做,就這麼簡單。
我真是太棒了 為團隊感到驕傲。
MVLink。
太酷了。
這是品牌 全新的Grok系統。
我會給你展示一個 再多一點 關於它。
這個系統,八 Grok晶片。
這是LP30。
世界從未 看到了。
任何 世界前所未見 是 V1。
這是第三個 一代。
我們現在銷量很大。
現在開始生產。
我會向你展示。
更多相關資訊請參見 稍等片刻。
世界首家 CPO Spectrum X 轉變。
這也包含在內 全面生產。
共封裝光學元件。
光學元件 直接到這個 晶片.
直接介面 矽。
電子獲得 翻譯 光子。
而且它還會繼續發展。
直接連接 到這個晶片。
我們發明了 工藝技術 與台積電合作。
我們是唯一一家 正在生產中 今天就買。
它叫雙門轎跑車。
完全 革命性的。
NVIDIA 已全面 生產 光譜 X。
這是維拉 系統。
兩倍 每項績效 任何 CPU 的瓦特數 當今世界。
它還在 生產。
你知道,我們 從未想過我們會 將會出售 獨立式CPU。
我們正在出售 很多CPU 獨立式。
這已經是, 當然,要去 成為數十億美元 美元業務 我們。
所以我非常非常 我們對我們的產品感到滿意 CPU架構師。
我們設計了一個 革命性的CPU。
這就是CX-9 由 Vera 提供動力 CPU,藍田 4 STX,我們的新 儲存平台。
好的?
所以這些就是 四,這些是 架子。
而且它們是相互關聯的。
這些中的每一個 機架,MVLink 架子,就是這個,我已經 給你們看過這個 前。
簡直太棒了 重的。
似乎會 每年都更重 因為我覺得 還有更多 裡面有電纜 每年。
所以這就是… MVLink機架。
我們也採取了 這項技術 因為它就是這樣 有效率地創造 一個資料中心 這些電纜 系統,結構化 電纜。
所以我們決定這樣做 那是乙太網路用的。
這就是乙太網路。
256 液冷 同一機架中的節點。
而且它也是 與……有關 這些令人難以置信的 連接器。
你們想 見到魯本·烏爾特拉了嗎?
這就是魯本斯 超強運算節點。
與魯本不同, 滑入 橫向地,魯本 Ultra進入 全新的貨架。
它叫做凱伯 這使我們能夠 連接 144 個 GPU 一個 MVLink 域。
於是,凱伯 架子,這個,我可以 肯定能把它舉起來。
但我不會。
它很重。
這是其中一項計算 節點,並且它會滑動 進入凱伯機架 垂直方向。
這就是它所在的地方 連接到。
這是中平面。
Kyber機架, 那四位頂尖的MVLink 連接器滑入 並連接到 這個,還有這個 成為其中之一 節點。
而每一個 這些架子是 不同的計算 節點,這是 最精彩的部分。
這是中平面。
背面 相反,位於中平面。
電纜 系統, 它有 限制,這有 就其而言的局限性 我們能走多遠 驅動線纜, 銅纜 我們現在有了這個 連接系統 144 個 GPU。
這是新的MVLink。
這也位於此處 垂直方向,而且 連接到 中平面上的 後退。
計算 正面。
MVLink 開關 背面。
一台巨型計算機。
好的?
這就是魯本 極端主義者。
正如我所提到的, 我提到了,如何 關於我們採取這個 下來?
我需要剩下的 我的幻燈片。
哦,它要來了。
向下?
好的。
謝謝你,珍妮。
這就是 當你…的時候 這就是 發生在你 不要練習。
好的。
好的。
所以,你看到了,你, 慢慢來, 千萬別受傷。
你看到了,你看到了 這張投影片。
你知道,只有在 Vidya的主題演講 你會看到最後 今年的下滑 再次呈現。
原因在於 也就是說,我只是 想讓你 要知道,去年, 我告訴你了 非常, 非常重要。
真是如此 很重要,這 值得一提 又是你。
這大概是 最 重要圖表 人工智慧的未來 工廠。
以及每一位首席執行官, 每一位首席執行官 世界將會是 正在追蹤。
我們將學習 非常深刻。
非常非常多 更複雜 比這更糟。
它是多維的。
但你將會 研究 吞吐量和 您的令牌速度 人工智慧工廠。
吞吐量, ISO 令牌速度 權力,因為那就是權力。
你擁有的所有力量 有。
吞吐量和 令牌速度 你們的工廠 永遠。
以及那項分析 將會領導 直接發送到您的 收入。
你這樣做 年份將會顯現 確切地說是明年 作為你的收入。
這張圖表是 這就是它的意義。
我說,在 縱軸,在 縱軸, 謝謝大家。
在垂直方向上 軸代表吞吐量。
水平方向 軸代表代幣價格。
今天,我要… 給你看看。
因為我們有能力, 因為我們現在 能夠增加 令牌速度, 而且因為模型 尺寸是 增加,因為 令牌長度 上下文長度, 取決於 不同等級的 不同的 應用程式使用 案件仍在繼續 從大約 10 萬增長 輸入長度標記 或許高達數百萬。
令牌輸入 長度正在增長, 以及輸出 標記長度為 生長。
所以,所有的一切 這些因素都與以下幾個方面有關: 最終, 行銷和 未來定價 代幣。
代幣是新的 商品。
和所有 商品,曾經 它達到一個轉折點, 一旦它成為 成熟或變得 成熟後,它將 分段 不同部分。
高吞吐量, 低速可能是 用於免費 層級。
下一層可能 成為中等水平。
或許是更大尺寸的型號。
更高的速度,例如 當然。
更大的輸入 上下文長度。
換句話說 不同的價格 觀點。
你可以看到,從 各種各樣的 服務,這個 是免費的。
這是免費版本。
第一層 可能是每人 3 美元 百萬代幣。
下一層可能 每百萬美元 6 美元 代幣。
你想 能夠保持 推動這一點 因為邊界 越大 模型,更智能, 更多輸入令牌 上下文長度, 更貼切。
越高 速度越快,你 能思考和 迭代更智慧的人工智慧 模型。
所以,這是關於 更智慧的人工智慧模型。
當你擁有 更智慧的人工智慧模型, 這些中的每一個 點擊即可讓你 為了增加 價格。
所以,這是45美元。
也許有一天, 將會有一個 高階型號 允許你,一個 優質服務 這使您能夠 產生令牌 速度是 極高 因為你身處一個 關鍵路徑。
或許你是 做很長一段時間 研究經費,以及150美元 每百萬代幣 這根本不可能。
那麼,讓我們來翻譯吧 那。
假設你 使用5000萬 每日代幣數量 研究員,年薪 150 美元 每百萬代幣。
事實證明, 一個研究團隊, 那甚至不算是一個 事物。
所以我們相信 這就是未來。
這就是人工智慧的用武之地。
想去。
就是這裡 今天。
它必須開始。
在此建立 價值和 建立其 實用性並獲得 越來越好 而且更好。
未來,你 去看大多數 服務涵蓋 所有這些。
這是霍珀。
霍珀開始了, 我移動了圖表。
這是50。
這是100。
Hopper看起來像 這。
而你將會擁有 預計 Hopper, 下一代, 更高,但是 沒有人會 預料之中 高得多。
這是格蕾絲·布萊克威爾。
格蕾絲·布萊克威爾 你的所作所為是… 免費檔位,增加 您的吞吐量 非常大。
然而,你 主要以獲利方式 您的服務,它 增加了你的 吞吐量提高 35 次數。
這並非 與任何其他事物都不同 每個產品 公司製造。
等級越高, 越高 品質越高,越高 演出, 越低 音量越低 容量。
所以,這並非 與任何其他事物都不同 其他業務 世界。
所以,現在我們是 能夠增加 這一檔次是它的 35 倍。
我們引入了 全新的層次。
這是好處 格蕾絲·布萊克威爾。
一次巨大的飛躍 料斗。
嗯,就是這樣。
我們正在與… 好的,所以,這是 格蕾絲·布萊克威爾。
好的,讓我來 重置此設定。
這位是維拉 魯賓。
好的?
現在,想想 剛才發生了什麼事?
在每一個 在每個層級 單層,在 每一層, 我們增加了 吞吐量。
在這一層 那是你的地方 最高平均售價和 你最寶貴的 分段,我們 增加了10倍。
難點就在這裡。
工作。
這真是太不可思議了 在這裡很難做到。
這是好處 長度為72。
這是好處 極低 延遲。
這是好處 極致的協同設計。
我們可以轉變 整個區域向上移動。
那麼,它究竟是什麼呢?
平均值來自 顧客 視角 結尾?
假設我 把所有這些都拿走 而我只是,你 知道,然後乘以它 反對...
反對...
假設我拿了25% 我的力量,被利用了 它以免費版本提供。
我25%的權力 中等水平。
我25%的權力 高級。
以及我25%的權力 在高級會員等級。
我的資料中心 它是1吉瓦。
所以,我得以… 決定我想要的方式 分發。
免費版 使我能夠 吸引更多 顧客。
這使我能夠 為我服務 尊貴的客戶。
以及這種組合, 所有產品的 這樣,你就可以 基本上你的 收入。
你的收入 可以生成, 假設這一點 簡單的例子 允許布萊克威爾 生成五次 更多收入。
所以,維拉·魯賓,你 應該能到達那裡 盡快。
原因在於 這是因為 你的代幣成本 下去,你的 吞吐量上升。
現在,但我們想要 更。
我們還想要更多。
所以,讓我來… 帶你回到 這。
正如我之前所說 你,這 吞吐量需求 一大堆失敗案例。
這種延遲,這種 互動性 需要巨大的 頻寬量。
電腦不會 比如極度的 失敗,極端 頻寬量 因為有 僅此而已 表面積 任何晶片 系統已具備。
因此,最佳化 高吞吐量 並進行最佳化 低延遲是指, 事實上,敵人 彼此。
所以,這就是 當時發生了什麼事 我們與 格羅克。
好的?
因此,我們獲得了 該團隊 參與了 Grok 的開發 晶片和授權 這項技術。
我們一直 共同努力 現在開始整合 系統。
這就是它 看起來像。
所以,最多 有價值的層級,在 最有價值的 層級,我們現在是 將會增加 性能提升35倍。
現在,正是這一點 簡圖 向你揭示 正是這個原因 為什麼英偉達如此如此 在廣大領域中強大 大部分 目前為止的工作量。
原因在於 那是因為向上 在這個領域, 吞吐量至關重要 太多了。
MVLink 72 就是這樣 顛覆性的。
正是如此 正確的架構。
而且這甚至很難 即使要戰勝, 你再添加 Grok。
但是,如果你 擴展此圖表 這裡很遠,而且 你說你想要 獲得服務 那不奏效 每人 400 個代幣 其次,但是1000 每秒令牌數 突然間,MVLink 72跑完了 蒸氣和簡單 到不了那裡。
我們根本沒有 頻寬充足。
所以,這就是 這時Grok就派上用場了。
這就是… 發生於我們 把它推出去。
所以,它出去了。
超過...
謝謝。
它超越了 甚至極限 MVLink 72 能做什麼 做。
如果你要 這樣做,翻譯 轉化為收入 相對於布萊克威爾而言, 維裡紅素是 5 倍。
如果你的大部分 工作量大 吞吐量方面,我會 堅持只用100% 維裡紅。
如果你的很多 工作負載需要 會編程,而且非常 高價值 工程代幣 在這一代中,我會 再加上 Grok。
我會把 Grok 也加進去。
或許占我總收入的25%。
整個數據中心。
我的其餘數據 中心全部100% 維裡紅。
因此,這就產生了 你感受到如何 你會添加 Grok 致維裡魯賓和 延長其 性能和 提升其價值 更。
這就是 事情發生了。
這是對比。
格羅克的原因 太有吸引力了 對我來說是因為 他們的計算 系統,一個確定性的 資料流處理器 它是靜態的 編譯後,它是 編譯器調度, 意思是 編譯數據 當… 計算和數據 到達同一地點 時間。
所有這些都已完成 靜態地 前進和 已安排 完全 軟體.
沒有動態 安排日程。
該建築是 設計時 大量的 SRAM。
它的設計正是為了 對於推斷而言,這 一項工作任務。
現在,這個 工作量,因為它 原來是這樣 人工智慧的工作負荷 工廠。
而作為世界 繼續 增加數量 高速 它想要的代幣 利用超智能生成 它想要的代幣 產生, 這種價值 整合是 我要報復。
更高。
所以,這些是 兩個極端 你可以使用處理器 看。
一塊晶片,500兆位元組。
一個維裡魯賓晶片, 一枚魯賓晶片,288 千兆位元組。
這需要很多東西。
Grok晶片將成為 能夠容納 參數大小 魯賓, 以及所有 情境 必須離開,KV 快取必須 順其自然。
所以,這種限制 格羅克的能力 真正達到 主流,到 真正起飛, 直到我們擁有 好主意。
想法。如果我們
分解 推理 完全與 一段軟體 叫 Dynamo 嗎?什麼?
如果我們重新架構 方式 推理已完成 正在籌備中?所以
正在籌備中?所以 我們可以把它 這項工作 完美感覺 維裡魯賓,然後 解除安裝解碼 低世代 延遲 頻寬受限 挑戰部分 工作量 格羅克。
於是我們團結起來了。
統一二 處理器 極端差異, 一個用於高 吞吐量,一個用於 低延遲。
仍然沒有 改變事實 我們需要很多 記憶。因此,
記憶。因此, 格羅克,我們只是 準備添加一個 一大堆葛洛克 晶片, 增加數量 它擁有的內存。
所以,如果你 簡直可以想像, 兆分之一 參數模型,我們 必須儲存所有 Grok 中的那部分 晶片.
然而,它就坐落於此 與 NVIDIA Verirubin 並列, 我們可以在那裡舉行 大量的 這是KV緩存。
必要的 正在處理所有 這些具有自主性的人工智慧 系統。
它是基於 這個想法 匯總 推理。我們這樣做。
推理。我們這樣做。
預填充物,就是這個。
這部分很簡單,但是 我們也緊密地 整合解碼功能。
所以,注意力 解碼的一部分是 在NVIDIA平台上完成 維裡紅,它 需要大量的數學運算, 以及飼料 前向網絡 其中一部分,解碼 一部分已經完成, 代幣生成 一部分是在Verirubin上完成的, 在 Grok 晶片上。
他們兩個 緊密合作 耦合在一起 今天,以太網 特殊模式 以減少其 延遲大約 一半。
所以,就是這樣。
能力允許 我們將整合 這兩個系統。
我們運行 Dynamo,這 極佳的 作業系統 適用於人工智慧工廠 最上面。
你將獲得35 次數增加,35 時間增加,而不是增加。
提及 新增 推理層次 表現 代幣生成 世界從未 已閱。
維裡魯賓 系統,包括 格羅克,我想 感謝三星,他們 製造 Grok LP30晶片 我們,他們也是 使勁搖 他們可以。
我非常感激 各位,我們進來了 生產 Grok晶片,還有你 我知道了,我們會出貨的。
下半場, 大概在第三季度 大體時間。
好的?
Grok LPX。
你知道,維裡魯賓 這有點難, 這有點難 再也無法想像了 顧客。
你知道,還有 真是太棒了 是,是葛蕾絲·布萊克威爾的 早期採樣 真是 複雜之處在於 齊聚一堂 NVLink 72。
但抽樣 維裡魯賓只是 進展非常順利 出色地。
事實上,薩蒂亞, 我想,傳簡訊發出去了 已經如此 第一維裡魯賓 機架已經架好了 並且正在運行 微軟 Azure。
所以,我超級棒 為他們感到高興。
我們正要… 繼續敲擊這些 把東西拿出來。
我們現在已經設定好了 一條供應鏈 可以製造 每週數千人 這些系統, 本質上是數吉瓦 每家人工智慧工廠 一個月內,我們 供應鏈。
所以,我們出發吧!
為了生產這些 維裡魯賓貨架 當我們正在努力的時候 從 GB300 機架中取出。
我們已全部 生產。
Verirubin CPU, 難以置信 成功的。
原因在於 那是因為人工智慧 工具需要 CPU 使用。
以及 Verirubin CPU 正是為此而設計的 非常適合 最佳位置。
令人難以置信 新一代 數據處理。
Verirubin CPU 是 理想的。
Verirubin CPU 加上 CX-9 連接 進入藍田 4層堆疊,100% 世界儲存 產業正在加入 我們在這個系統上。
原因在於 這是因為 他們看得清清楚楚。
同一件事。
儲存系統 將會得到 猛擊。
它會變得 因為我們被猛擊 曾經有人類 使用儲存 系統。
我們過去曾有 人類使用 SQL。
現在我們要… 讓人工智慧使用 這些存儲 系統。
而且它將 大型 QDF 加速儲存 QVS加速 存儲,以及, 非常重要,KV 快取.
這就是維裡魯賓 系統。
現在,最令人驚訝的是什麼?
就是這樣。
僅僅兩年 時間,在一吉瓦 工廠,僅 兩年後, 一吉瓦 工廠,使用 我所學的數學 之前已經有給你看過了。
而摩爾定律 會給我們 幾個步驟, 我們本來可以,你 知道,X因素 電晶體的數量, 我們本來可以對 X 因子進行分析。
翻盤次數, 我們本來可以對 X 因子進行分析。
數量 頻寬量。
但這樣一來, 建築,我們是 我們將帶我們 代幣生成 速度,代幣 生成率, 從200萬到 7億,350 時間不斷增加。
這就是,這就是 力量 極致協同設計。
這就是我的意思。
當我們整合時 並進行最佳化 垂直方向,但是 然後我們打開它 水平方向 人人都能享受。
這是我們的路線圖, 很快。
布萊克威爾在這裡。
奧伯龍系統。
以魯賓為例, 我們有奧伯龍 系統。
我們總是 向後 相容,因此 如果你想的話 什麼都不改變 然後繼續下去 繼續前進 新 建築,你 可以做到。
舊系統, 標準機架 系統,奧伯龍, 仍有貨。
奧伯龍是銅 擴大規模,並隨著 奧伯龍,我們可以 也使用光學 橫向擴展,或 不好意思,光學 擴大規模 至 MVLink 576。
好的,就是這樣。
很多 對話內容是: 英偉達會… 銅氧化皮,或 光學放大, 我們將要做 兩個都。
所以我們要… 擁有 MVLink 144 與 Kyber 一起, 然後是奧伯龍, 我們要去MVLink 72 加光學 到達 MVLink 576。
新一代 魯賓,與魯賓 Ultra,我們有 Rubin Ultra晶片, 即將到來, 正在錄製結束 我們擁有一個品牌 新晶片,LP35。
LP35 將,對於 第一次, 整合英偉達的 MVFP4 計算 結構,給你 還有一些X因素 加快。
好的,所以這個 是 Oberon,MVLink 72,光學標尺 向上,它使用 Spectrum 6, 世界首款聯合包裝 光學,以及所有 這是在 生產。
新一代 接下來是費曼。
費曼有一個新的 當然是GPU。
它還配備了一個新的LPU(線性功率單元)。
LP40。
一大步。
極好的, 令人難以置信的新 技術。
現在,團結 NVIDIA 的規模和 Grok團隊 共同建設 LP40。
將會是 極好的。
全新CPU 簡稱 ROSA 致羅絲琳。
Bluefield 5, 連接下一個 下一代CPU SuperNIC CX-10。
我們將擁有Kyber, 那是銅 擴大規模。
我們還將有 Kyber CPO 規模擴大。
所以,首先 隨著時間的推移,我們將擴大規模。
用銅 和共同包裝 光學。
好的?
因此,很多 人們一直 問,你知道,詹森, 銅會… 仍然重要嗎?
答案是肯定的。
詹森,是你嗎?
擴大規模 光學的?
是的。
你打算… 擴展光學?
是的。
所以,對於 所有在場的人 我們的生態系統,我們 還需要更多 容量。
而這真的 關鍵。
我們需要更多 銅的容量。
我們需要更多 光學器件容量。
我們需要更多 鮮棕櫚油產能。
就是這樣。
原因如下: 一直在與 你們所有人都要躺下 基礎 這一水準 生長。
所以,費曼 將擁有全部 那。
讓我看看我是否 什麼都沒錯過。
就是這樣。
每年都是如此, 全新 建築學。
很快。
英偉達很快就做到了。
從晶片開始 公司對人工智慧 工廠公司,或 人工智慧基礎設施 公司,人工智慧 計算機公司 這些系統。
而現在,我們是 建構整個人工智慧 工廠。
太多了 被浪費的權力 在這些人工智慧領域 工廠。
我們想製作 可以肯定的是,這些人工智慧 工廠來了 共同設計 在最好的情況下 可能的方法。
這些中的大多數 組件從未 見面。
我們大多數人 技術供應商 現在我們都知道了 彼此。
但在過去,我們 從未見過面 其他直到 數據中心。
那不可能發生。
我們正在建設 超複雜 系統。
所以,我們必須 彼此見面 幾乎在某個地方 別的。
於是,我們創造了 宇宙和 Omniverse DSX 世界, 一個平台,其中 我們所有人都能見面 並設計這些 千兆工廠,千兆瓦 人工智慧工廠 幾乎在系統中。
我們有模擬 用於系統的 貨架 機械、熱力、 電氣的, 聯網。
這些模擬 系統整合 進入我們所有人 生態系合作夥伴 令人難以置信的工具 公司。
我們也開展了以下業務: 連接到 網格,以便我們 可以與…互動 互相發送 彼此 訊息,所以 我們能夠 調整電網功率 和資料中心 權力相應增強, 節約能源。
然後,在裡面 資料中心 使用 Max-Q,所以 我們能夠 調整系統 動態地 電力和冷卻 以及所有 不同的 我們共同擁有的技術 共同努力, 因此我們不留任何遺憾 權力浪費了, 這樣我們就可以跑了 最優 交付速度 大量的 令牌吞吐量。
毫無疑問 我腦海裡一直在想… 兩倍 這裡。
以及該因素 以我們目前的規模來說,是兩個 談論的是 巨大。
我們稱之為英偉達 DSX平台。
就像所有 我們的平台, 那裡有 硬體層 那裡有圖書館 一層,還有… 生態系層。
正是如此 同樣的方法。
讓我們把它展示給… 你。
最偉大的 基礎設施 建設中 歷史正在書寫。
世界正在競相奔跑 製造晶片, 系統和人工智慧 工廠。
每個月 延誤成本 損失數十億美元 收入。
AI工廠收入 等於令牌 每瓦。
所以,有了權力 限制,每一個 未使用的瓦特是 收入損失。
NVIDIA DSX 是一款 全宇宙數字 雙子藍圖 設計和 運行人工智慧 工廠 最大代幣 吞吐量 韌性,以及 能源效率。
開發者連接 透過幾個 蜜蜂。
DSX SIM卡 身體的, 電氣、熱力、 和網路 模擬。
DSX人工智慧交易平台 工廠營運 數據。
DSX Flex 用於安全, 動態功率 管理 網格。
DSX Max Q 到 動態 最大化代幣 吞吐量。
它以支援 SIM 卡開始。
來自 NVIDIA 的資源 和裝置 製造商, 由 PTC Windchill 管理 產品生命週期管理。
然後,基於模型 系統工程 用達梭語完成 系統 3D 經驗。
雅各布斯帶來了 數據輸入到他們的 自訂全能宇宙 應用程式最終定稿 設計。
它經過測試 領先的模擬 使用西門子工具 Star CCM Plus 適用於 外部散熱器。
Cadence Reality 內部,eTap 用於 電氣設備,以及英偉達的 網路模擬器 DSX 飛機。
而且實際上 委託 透過 Procore 到 確保加速 施工時間。
當網站運作時 現場直播,數位直播 雙胞胎變成了 操作員。
人工智慧代理與 DSX Max Q 到 動態協調 基礎設施。
菲德拉的經紀人 負責冷卻 和電氣 系統,發送 向最大 Q 訊號 持續 最佳化計算 吞吐量和 能源效率。
Emerald AI 代理 解讀即時電網 需求和壓力 信號並進行調整 動態供電。
透過 DSX,NVIDIA 以及我們的生態系統 合作夥伴是 競相研發人工智慧 基礎設施 在全球範圍內, 確保極端 彈性, 效率和 吞吐量。
真是不可思議, 正確的?
嗯,《宇宙追兇》 設計用於盛放 世界數字 雙生子,從 地球。
而且它將 擁有數位孿生體 各種尺寸。
所以,我們剛剛 太棒了 生態系統 合作夥伴。
我要感謝所有人 你的。
所有這些 公司是品牌 對我們這個世界來說,這是全新的。
我們認識的人不多。
你只是一個 幾年前。
現在我們是 如此密切地合作 共同努力 共同建設 最大 世界上的計算機 前所未見的, 而且還要這樣做 在行星級尺度上。
所以NVIDIA DSX是 我們的新人工智慧工廠 平台。
我會花很多時間 沒多少時間在這上面。
時間。
然而,我們是 去太空。
我們已經… 在太空中。
雷神是輻射 已獲批准,我們 在衛星上。
你進行影像 衛星。
未來,我們將 同時建構數據 空間中心。
顯然,非常 做起來很複雜 所以。
我們正在與 我們的合作夥伴 一台名為“新電腦” 維拉·魯賓太空 一。
而且它將 去太空 啟動資料中心 在太空中。
當然,現在,在 空間,沒有 傳導。
沒有 對流。
就只有 輻射。
所以我們必須 想辦法 冷卻這些系統 在太空中。
但我們有很多 偉大的工程師們 正在處理。
讓我跟你談談。
關於一些新事物。
所以彼得·斯坦伯格 他在這裡,他 寫了一篇文章 軟體.
它叫做 OpenClaw。
我不知道是否 他意識到了 成功了 將會是, 但其重要性 意義深遠。
OpenClaw 是 第一。
這是最 流行的開源軟體 項目在 人類歷史, 而且它確實這樣做了 僅僅幾週時間。
它超出了預期 Linux 在 30 年內做到了這一點 年。
正是如此。
重要的。
正是如此。
重要的。
可以。
好了,就這些了。
你做。
好的?
我們宣布 我們對此表示支持。
讓我快速地說明一下 請仔細閱讀以下內容。
我想給你看 有幾件事。
你只需輸入 這。
你把這個輸入到 一台遊戲機。
然後它就出去了。
它找到了 OpenClaw。
它會下載它。
它會為你建構一個人工智慧 代理人。
然後你就可以 隨便你怎麼說 否則你需要做其他事。
好的?
那麼,讓我們來看… 看。
那麼,讓我們來看… 看。
那麼,讓我們來看… 看。
那麼,讓我們來看… 看。
那麼,讓我們來看… 看。
那麼,讓我們來看… 看。
那麼,讓我們來看… 看。
那麼,讓我們來看… 看。
那麼,讓我們來看… 看。
那麼,讓我們來看… 看。
那麼,讓我們來看… 看。
那麼,讓我們來看… 看。
那麼,讓我們來看… 看。
那麼,讓我們來看… 看。
那麼,讓我們來看… 看。
那麼,讓我們來看… 看。
那麼,讓我們來看…
看。
那麼,讓我們來看… 看。
那麼,讓我們來看…
看。
開源 項目僅 掉落。
安德烈·卡帕蒂 剛推出 一個叫做 研究是一項巨大的挑戰。
交易。
你給人工智慧 代理執行任務,前往 睡覺。
它運行100 實驗 過夜,保持 哪些方法有效?
殺死那些不合格的。
我真的很喜歡 我的東西啟用 讓那個人去做 我們當時就有一個 那傢伙,他告訴我 就像他安裝的那樣 身為60歲的老人 爸爸,還有他們 釀造啤酒, 連接 機器 透過藍牙 打開爪子,然後 我們實現了自動化 一切, 包括整個 面向人群的網站 訂購。
龍蝦拉格啤酒已準備就緒 是。
數百人 正在排隊 聖讓的龍蝦。
“張開爪子。”
“張開爪子。”
“張開爪子。”
我們想要建造 打開爪子 爪。 」
爪。 」 “每個人都是 談到開放 爪子,但是什麼?
“Open Claw到底是什麼鬼?”
信不信由你, 已經有爪子了。
和。 」
「極好的, 極好的。
現在,我來舉例說明。
實際上是什麼 Open Claw 處於 這樣一來, 你們所有人都可以 理解 但它,但我們還是… 想想發生了什麼事。
什麼是 Open Claw?
它連接,它是 智能體系統。
它呼喚和 連接到大型 語言模型。
所以第一件事 它有,它有 它所擁有的資源 管理。
它可以訪問 工具,它可以 存取檔案系統, 它可以訪問 大語言 模型。
它能夠做到 安排日程。
它能夠執行 cron 任務。
工作,它能夠 分解問題 你給了它 一步一步地進行。
它可能衍生出 並呼籲其他 次級代理人。
它有輸入/輸出介面。
你可以和…談談 它以任何方式 你想要。
你可以揮手 它和它 理解你。
你可以和…談談 任何方式 想。
它會把你送到你那裡 消息。
它會給你發短信,發送 你發郵件。
所以它有 I/O 功能。
它還有什麼作用?
有?
嗯,基於此, 你可以說,在 事實上,這是一個 作業系統.
我剛剛使用了 和我一樣的文法 會描述一個 作業系統.
我們的開放式爪子有 開源的, 本質上, 作業系統 智慧型計算機。
並無不同。
比 Windows 更甚 使之成為可能 以便我們創造 個人電腦。
現在,Open Claw 擁有 使之成為可能 以便我們創造 私人代理人。
其意義是 極好的。
其意義是 極好的。
首先, 收養 你知道,就是那樣。
就其本身而言。
然而,最 重要的是 這。
每一個 公司現在 意識到,每一個 單一公司 每一個 軟體公司 每一個 單一技術 公司,為了 CEO們,這個問題 是,你的 開爪策略?
正如我們需要的那樣 它們都運行Linux系統 戰略,我們所有人 需要它有一個 HTTP/HTML策略, 這開始了 網際網路.
我們都需要它 擁有一個 Kubernetes 策略, 使之成為可能 用於行動雲 發生。
每家公司 當今世界 需要有一個 開爪策略, 智能體系統 戰略。
這是新的 電腦.
現在,這只是 激動人心的部分來了。
這是企業 在 Open Claw 之前 你知道?
我提到過 早些時候,方式 企業IT工作, 以及原因 它叫做數據 中心是因為 這些大房間, 這些大 建築物,持有 數據,保存 文件 人, 結構化資料 商業。
它會通過的 透過軟體 它擁有工具,並且 你知道,系統 記錄和所有 種類 工作流程是 編纂成冊, 然後就變成了 人類的工具 會使用。
數位員工 會使用。
那是舊式IT 行業。
軟體公司 創建工具, 儲存文件,以及 當然,還有GSI的 顧問們 幫助公司 想辦法 使用這些工具和 整合這些 工具。
這些工具是 極具價值。
這些工具是 極其珍貴 為了治理和 安全和 隱私和 合規性以及 所有這些 繼續是 真的。
只是開放之後的情況。
爪子,後代理, 這就是它的樣子 看起來會像這樣。
這是 非凡的部分。
每項IT 公司,每一家 單一的SaaS公司 每家SaaS公司 會變成氣體 公司。
每個SaaS 公司將成為 一家天然氣公司, 代理作為一種 服務公司。
更令人驚訝的是 就是這樣。
現在,打開爪子 給了我們,給了 產業精確 它需要什麼 時間正好。
就像Linux一樣 產業 究竟是什麼 恰好需要 時間。
就像 Kubernetes 一樣 出現在 恰到好處 時間。
正如HTML所示 向上。
它使這一切成為可能 整個 行業將抓住 進入這個開放 原始碼堆疊和 Go 用它做點什麼 它。
只有一個 抓住。
智能體系統 企業 網路可以有 獲取敏感資訊 訊息,它可以 執行程式碼,並且 它可以交流 外部。
就這麼說吧 大聲點,好嗎?
想想看。
存取敏感資訊 資訊, 執行程式碼, 交流 外部。
你可以, 課程,訪問 員工 資訊、訪問 供應鏈, 獲取融資 資訊, 敏感的 資訊和 寄出去。
交流 外部。
顯然,這不可能。
或許可以允許。
所以,我們做了什麼?
我們曾與…合作 彼得。
我們拿了一些 世界最佳 安全和 電腦專家 我們與…合作 彼得將公開 爪, 開爪, 企業安全, 和企業 私人能力。
我們稱之為, 這是我們的英偉達 打開爪子參考 適用於 Open、Nemo Claw、 這是一個 開放參考 爪。
它擁有一切 這些具有自主性的人工智慧 工具包,以及 第一部分是 我們稱之為技術 具有 Open Shell 的 現已整合 進入張開的爪子。
現在是企業級的 準備好。
這個堆疊,這個 堆疊,帶有一個 參考設計 叫尼莫爪, 好的?
附參考資料 我們稱這個堆疊為 Nemo 爪子,你可以 下載,播放 有了它,你 可以連接到它 政策引擎 所有SaaS 公司 世界。
以及您的政策 引擎超棒 重要,超級 有價值的。
所以這項政策 引擎可能是 已連接,尼莫爪 或打開爪子 Open Shell 將會是 能夠執行 那個政策引擎。
它有一項政策,它 設有網路防護措施, 它具有隱私性 路由器,以及作為 結果,我們可以 保護和保管 取自《利爪》 內部執行 我們公司也這樣做 安全地。
我們還添加了 幾件事 智能體系統, 以及最 重要的事情 你想用 你專屬的訂製爪子 以便您可以 擁有您的專屬定制 模型。
這是英偉達的 開放模式 倡議。
我們現在位於 一切的前沿 人工智慧的單一領域 無論是模型還是其他模型 尼莫‧特隆,宇宙 世界基金會 型號,大型 人工將軍 機器人學,人類 機器人模型,Alpa 梅奧診所自主運作 車輛,BioNemo 用於數位生物學, 人工智慧地球2 物理。
我們現在位於 每一個前沿 我們是獨一無二的。
在邊境 每一個都是。
請看。
世界是 各種各樣的。
沒有單一的模型可以 服務每一個 行業。
開放模型是其中之一 最大和 各種各樣的人工智慧 生態系統 世界。
近300萬 開放模型 語言、視覺、 生物學、物理學、 和自主的 系統賦能人工智慧 建構 專業領域。
NVIDIA是其中之一 最大 貢獻者 開源人工智慧。
我們建造和 第六版 開放家庭 Frontier 型號, 加上培訓 數據、食譜和 有助於建構框架 開發者 定制和採用。
新排行榜 頂級模特兒是 每次啟動 家庭。
尼莫的核心 Tron,推理 語言模型 視覺的 理解,RAG, 安全和言論自由。
現在能聽到我說話嗎?
你好?
是的,我聽得到你說話。
現在。
宇宙,前沿 實體模型 人工智慧世界生成 以及理解。
阿爾法瑪雅, 世界首家 思考和 推理 自動駕駛汽車 人工智慧.
格魯特,基金會 一般模型 用途機器人。
BioNemo,開放 生物學模型 化學,以及 分子設計。
Earth2,模型 天氣和氣候 預測,根深蒂固 在人工智慧物理學領域。
NVIDIA 開放式模型 為研究人員 以及開發者 奠定基礎 並部署人工智慧 他們自己的 專業領域。
我們的模型是 對所有人來說都很有價值 你因為,數字 第一,它在… 名列榜首。
它是世界一流的。
但大多數 重要的是,它是 因為我們並非如此 準備放棄 正在處理。
我們將繼續 正在努力 每一天。
Nemo Tron 3 是 將會是 緊隨其後的是尼莫·特隆 4.
《宇宙1》 緊隨其後的是《宇宙》 2.
格魯特,第二代。
每一個 這些,我們要去 繼續 推進這些 模型。
垂直的 一體化, 水平方向的開放性。
這樣我們就可以 讓每個人都能 加入人工智慧 革命。
第一名 排行榜 研究與聲音 以及世界模型 和人工的 通用機器人 以及自動駕駛 汽車與推理。
當然,還有一 最 重要的那些, 這是尼莫·特隆3 在 Open Claw 中。
這是尼莫·特隆3 在 Open Claw 中。
再看看頂部 三。
共有三部分。
最佳模型 世界。
好的?
所以,我們現在處於… 邊境。
這也是真的。
我們想要 創建 因此,基礎模型 你們所有人都可以 對其進行微調並 訓練後將其 正是 你很有智慧 需要。
這是尼莫·特隆3 極端主義者。
將會是 最佳基礎型號 世界永遠 已創建。
這使我們能夠 幫助每個國家 建立他們的 自主人工智慧。
我們正在努力 如此之多 不同的公司 就在那裡。
以及最 令人興奮的事情 我們正在做的事情 今天,我是 今天宣布, 是尼莫特隆 聯盟。
我們非常敬業 正是如此。
我們已投資 數十億美元 人工智慧 基礎設施 我們能夠 發展核心 那是人工智慧引擎。
所有必需品 圖書館 推理等等。
但也要創造 人工智慧模型 啟動所有 單一產業 世界。
大語言 模型確實 重要的。
當然是 重要的。
人類如何才能… 難道不是智慧嗎?
然而,在 不同的 週邊產業 世界,在 不同的國家 在全球範圍內, 你需要擁有 能夠 定制您自己的 模型。
以及該領域的 該模型是 截然不同 從生物學到 從物理學到自動駕駛 汽車到一般 機器人技術 當然,人類 語言。
我們還有 工作能力 每一個 建立區域 他們的領域 具體來說,他們的 自主人工智慧。
今天,我們是 宣告 聯盟 與我們合作 製作尼莫·特隆4 更令人驚嘆。
以及那個聯盟 有一些驚人的 其中包含的公司。
黑森林實驗室 圖像公司 Cursor 著名的編碼 公司。
我們大量使用它。
朗鏈,十億 下載 建立自訂 代理人。
米斯特拉爾,亞瑟 提到了,我想 他來了。
極好的, 非常棒的公司。
困惑,困惑的 電腦.
一定要用。
人人都用它。
太棒了。
多模態智能體 系統。
反思,薩瓦姆 來自印度 思維機器, 米拉米拉蒂的實驗室。
極佳的 加入的公司 我們。
謝謝。
我說過,我說過 每一個 企業公司, 每一個 軟體公司 世界需要一個 智能體系統, 需要代理人 戰略。
你需要有一個 開爪策略。
他們都同意這一點。
他們都是 與我們合作 為了整合Nemo, 尼莫之爪 參考設計, NVIDIA代理 人工智慧工具包,以及 當然,我們所有人 開放模型。
一家公司之後 其他。
太多了。
而我們是 與所有合作夥伴 你的。
我真的很感激 為此。
這就是我們的 片刻。
這是一次徹底的革新。
這是一場文藝復興。
文藝復興 企業IT。
從那將會是 2兆美元 業,這是 將成為 兆美元 美元產業 不僅提供 人們使用的工具 使用, 但代理人是 專門從事非常 特殊領域 你是專家 也就是說,我們可以 租。
我完全可以 想像一下 未來,每一個 單身工程師 我們公司將 需要每年 代幣預算。
他們將要 賺幾百塊 一千美元 他們基地的年份 支付。
我要給 他們大概有一半 除此之外 將其作為代幣 他們可能是 放大10倍。
當然會。
它現在是其中之一 招募 矽基工具 谷。
有多少代幣 伴隨著我的 工作?
原因在於 這一點很清楚。
因為每一個 擁有工程師 訪問令牌 將會更多 高效。
而那些代幣, 如你所知,威爾 由人工智慧生成 所有工廠 你和我們,我們 攜手共建。
所以每一個 企業公司 今天,它佔據了主導地位。
檔案系統和 數據中心。
每一個 軟體公司 未來將是 主動的,而且他們 將是代幣 製造商。
它們只是像徵性的。
用戶因其 工程師們,他們會 成為代幣 製造商 他們所有人 顧客。
開放條款 活動,公開 條款事件不能 要低調。
這是一個非常重要的問題。
以 HTML 格式處理。
這是一個非常重要的問題。
以 Linux 方式處理。
我們現在擁有世界一流的 開放代理 框架 我們中的一些人可以利用 建構我們的開放 條款策略。
我們已經創建了一個 參考設計 叫Nemoclaw 你們所有人都可以 用法是 它經過優化了。
性能優異,它是 安全可靠。
說到經紀人, 如你所知,特工們 感知、推理、 並採取行動。
大多數代理人 在當今世界 我已經說過 關於數字 代理人。
他們在…中行動 數位世界。
他們推理,他們 編寫軟體。
一切都是數位化的。
但我們也擁有 一直在做 實體化 長期擔任代理人 時間。
我們稱它們為機器人。
以及人工智慧 他們需要的是 物理人工智慧。
我們有一些大事。
這裡會發佈公告。
我打算就… 走過幾個地方 他們中的。
這裡有110台機器人。
幾乎每一個 公司 世界啊,我不能 想想看,就這麼一個。
正在製造機器人 正在與英偉達合作。
我們有三個 電腦 訓練計算機 合成數據 生成和 模擬計算機。
當然,還有 機器人計算機 位於內部 機器人本身。
我們擁有所有 軟體堆疊 這樣做是必要的。
人工智慧模型 幫你。
而這一切是 整合到 周圍的生態系統 世界。
我們所有人 西門子合作夥伴 致 Cadence, 傑出的合作夥伴 到處。
而今天,我們是 宣布一個完整的 一堆新的 合作夥伴。
如您所知,我們已經 一直在做 自動駕駛汽車 許久。
查德GPT時刻 自動駕駛 汽車已經到了。
我們現在知道我們 可以成功, 自動駕駛 汽車。
今天,我們是 宣布四項新舉措 NVIDIA的合作夥伴 自動駕駛計程車準備就緒 平台。
世界,現代, 日產,吉利。
總共18 百萬輛汽車 每年。
加入我們 來自合作夥伴 之前,梅賽德斯 豐田,通用汽車。
已準備好使用無人駕駛計程車的車輛數量 未來的汽車 將會是 極好的。
而我們是 同時宣布 大型合作夥伴關係 使用 Uber。
我們有多個城市 將會是 部署和 連接這些已準備好投入使用的無人駕駛計程車 車輛駛入 網路。
所以,整個 一批新車。
我們有ABB, 優傲機器人公司 哭泣,太多了 機器人公司 這裡。
我們正在努力 和他們一起 實施我們的 實體人工智慧模型 整合到 模擬系統 這樣我們就可以 部署這些機器人 進入製造業 到處都是線條。
我們有卡特彼勒 這裡。
我們甚至還有T-Mobile 這裡。
原因在於 那是在 未來,那台收音機 塔曾經是 無線電塔。
這將是一個 NVIDIA 空中人工智慧 內存。
所以,這就是 將會是一個 機器人無線電 塔,意思是它 可以進行推理 交通流量,數字 了解如何調整 它的光束形成 它能節省 能量 可能且 增加數量 忠誠 可能的。
太多了。
人形機器人 這裡,但我的一個 最喜歡的之一 我最喜歡的,是 迪士尼機器人。
你知道嗎?
這麼說吧。
讓我來展示一下 你其中一些 影片.
我們來看看。
第一的。
第一個全球 實體店面的推出 大規模人工智慧時代已經來臨。
自動駕駛汽車。
以及 NVIDIA Alpa 梅奧,車輛現在 要有理由, 幫助他們 安全操作和 聰明地 適用於各種情況。
我們要求汽車 敘述它的行為。
我要換車道 向右 跟著我的路線走。
解釋其 思考時 做出決定。
那裡有一輛雙排停放的汽車。
我的車道上有車。
我繞道而行。
並跟隨 指示。
嘿,梅賽德斯。
你能加快速度嗎?
好的,我會加快速度。
這是一個時代 物理人工智慧和 機器人技術。
世界各地, 開發者是 製造機器人 各種。
但現實世界 非常 各種各樣的, 不可預測的,完整的 極端情況。
真實世界數據 永遠不會是 足以進行訓練 每種情況。
我們需要數據 由人工智慧生成 以及模擬。
對機器人來說,計算 是數據。
開發人員預先培訓 世界基金會 互聯網規模的模型 影片和人類 示威遊行。
並進行評估 模型性能 讓他們做好準備 訓練後。
使用古典和 神經模擬, 它們產生 大量的 合成數據和 培訓政策 規模。
為了加速 開發者,NVIDIA 建構開源軟體 艾薩克實驗室的機器人 培訓和 評估和 模擬。
牛頓用於可擴展 以及 GPU 加速 可微分的 物理模擬。
宇宙世界模型 神經 模擬。
格魯特打開 機器人基金會 機器人模型 推理和 行動生成。
只要有足夠的運算能力, 開發者 到處都是 關閉 物理人工智慧數據 差距。
Paritas AI 訓練 他們的運作 客房服務員 NVIDIA機器人 艾薩克實驗室 倍增他們的 使用 NVIDIA 數據 宇宙世界模型。
熟練的人工智慧使用 艾薩克實驗室與宇宙 生成訓練後 他們的數據 熟練的人工智慧大腦。
他們使用 加強 學會堅強 該模型跨越 數千 變體。
人形生物使用艾薩克 實驗室訓練全體 身體控制和 操縱 政策。
六角機器人 使用 Isaac Lab 訓練和數據 一代。
富士康進行微調 群體模型 艾薩克實驗室。
Noble Machines也是如此。
迪士尼研究 使用他們的卡米諾 實體模擬器 在牛頓和艾薩克 實驗室培訓 政策 他們的性格 機器人無所不在 宇宙。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
迪士尼研究 他們用自己的方式 用於訓練和數據 一代。
這是因為 利用物理學 這個牛頓解算器 運行在 NVIDIA Warp 我們共同 開發 迪士尼和 DeepMind 創造了 有可能 以便您能夠 適應 物質世界。
看看這個。
我只是忘了… 說出來。
這就是聰明之處 你是。
我是個雪人。
這不是斯諾克百科全書。
你能想像嗎?
這?
未來 迪士尼樂園。
所有這些機器人。
所有這些 人物 四處閒逛。
哦。
你知道,我必須 不過我得承認,我 以為你是 會長高。
我從未見過 這麼矮的雪人, 說實話。
沒有。
嘿。
這麼說吧。
你想幫我 出去?
萬歲!
耶!
好的。
通常,通常我 結束主題演講 透過告訴你什麼 我告訴你了。
我們談到了 推理轉折。
我們談到了 人工智慧工廠。
我們談到了 打開爪子特工 那是一場革命 正在發生。
當然,我們 談到 物理人工智慧和 機器人技術。
但我告訴你。
為什麼我們得不到 一些朋友 請幫我們關閉它 出去?
當然。
好的。
播放它。
快點。
Loading video analysis...