【人工智能】物理AI时代要来临了吗?| 黄仁勋2026 | CES演讲 | Vera Rubin架构 | 两次平台革命的叠加 | Omniverse | 芯片怪兽 | 数字孪生 | 工业AI
By Best Partners TV
Summary
Topics Covered
- AI原生应用:从工具到智能体
- 摩尔定律失效,英伟达以协同设计破局
- 物理AI:让AI理解并交互真实世界
- Alpamayo:端到端AI驱动的自动驾驶
- 开源生态:AI普及的关键驱动力
Full Transcript
大家好,这里是最佳拍档 二零二六年一月六日 拉斯维加斯的清晨还带着一丝凉意 但是CES展会的现场早已经人声鼎沸 一个能容纳三千人的礼堂座无虚席 外面的庭院里 挤着两千名无法入场的观众 四楼原本的展区 也临时变成了直播分的会场 在全球范围内 还有数百万观众正守在屏幕前 等待着一场科技盛宴的开启
这场演讲的主角 正是英伟达的创始人黄仁勋 那个总是身着标志性皮衣、用沉稳的语气 改写着行业规则的科技领袖 他一开口就抛出了一句让人印象深刻的话 今天这里要塞进去的内容 大概有十五公斤那么多 九十分钟后,当演讲结束 整个科技界都在讨论 黄仁勋不仅带来了一堆的重磅产品 更宣告了一个全新时代的到来
一个由 AI、物理交互和极致算力共同定义的时代 今天咱们就来聊聊这场演讲背后的技术逻辑、商业野心 以及它将如何影响着我们每个人的未来 要理解这场演讲的分量 我们首先要回到黄仁勋开场提出的一个核心判断 计算机行业正在经历每十到十五年一次的彻底重置 而这一次,是两场平台级革命的叠加
回顾历史,从大型机到PC 从互联网到云,再到移动设备 每一次平台迁移都伴随着应用生态的全面重构 但是这一次 变革的深度和广度远超以往 黄仁勋指出 第一场革命是应用形态的彻底改变 过去的应用是预录制、预编译的程序 下载到设备上就能运行 而未来的应用 将完全构建在AI之上
每一行代码、每一个像素、每一个token 都可能是实时生成的 你不再是简单的使用一个工具 而是在和一个能理解上下文、能实时思考的智能系统交互 想象一下,你打开了一个设计软件 不需要手动绘制线条 只需要描述你的想法 AI就能生成符合你预期的设计图 甚至还能根据你的反馈实时调整 这就是AI原生应用的魅力
而第二场革命 发生在软件开发的底层逻辑上 过去,开发者的核心工作是编程 用代码来定义每一个功能、每一个流程 然后让程序在CPU上运行 但是现在,这个逻辑被彻底颠覆了 开发者的核心工作变成了训练 通过数据让AI学会技能 而运行这些AI的载体 也从CPU转向了GPU
这个转变是计算范式的根本性重塑 黄仁勋用五层蛋糕来形容计算机的技术栈 从底层的硬件到顶层的应用 现在的每一层都在被AI重新发明 这意味着过去的十年里 价值约十万亿美元的传统计算体系 正在向这种全新的计算方式转型 每年有数千亿美元的风险投资 正在涌入这个新的世界
而全球一百万亿美元规模的产业体系中 越来越多的研发预算 正在从传统方法转向人工智能 可能有人会问 这些钱都是从哪里来的呢?
答案很简单 从传统计算的现代化转型中来的 从旧的研发模式向AI驱动的新模式迁移中来的 这场变革不是凭空出现的 而是技术积累到一定阶段的必然爆发 而英伟达正是这场变革的核心推动者 要支撑这两场革命 极致的算力是基础 黄仁勋在这次演讲中给出了答案 Vera Rubin架构
一款被他称为突破摩尔定律极限的 下一代的计算平台 要理解Vera Rubin的重要性 我们必须先明白行业当前面临的困境 摩尔定律已经基本放缓 芯片上晶体管数量的增长速度 早已跟不上AI模型的规模以每年十倍的增长速度 也跟不上AI推理Token的生成量 以每年五倍的增长速度 这意味着 单纯依靠增加晶体管的数量来提升性能
已经走到了尽头 那么,英伟达是如何破局的?
答案是极端协同设计 也就是不再单独升级某一颗芯片 而是对整个技术栈的每一个环节 进行同步创新 让六颗不同的芯片协同工作 形成一个有机的整体 Vera Rubin架构的核心 是由六颗定制芯片组成的系统 每一颗芯片都有其独特的使命 却又能无缝协同 首先是 Vera CPU
这是一款专门为AI超算设计的处理器 在功耗受限的环境下 性能是上一代的两倍 每瓦性能更是达到了全球顶尖的水平 它拥有八十八个自研核心 支持一百七十六个线程同时运行 通过空间多线程技术 实现了极高的 IO性能 能够快速的调度AI推理过程中的海量数据 与之紧密配合的 是Rubin GPU
这颗芯片的浮点推理性能 达到了50 P·Flops 是上一代Blackwell GPU的五倍 训练性能达到了35 P·Flops 是上一代的三点五倍 更令人惊叹的是 它的晶体管数量仅为上一代的一点六倍 能实现这样的性能飞跃 关键在于其核心的NVFP4张量核心 这不是一个简单的四位浮点数计算单元
而是一个完整的处理单元 能够动态的调整精度和结构 在不需要高精度的场景下提升吞吐量 在关键环节回归最高精度 这种自适应能力是软件无法实现的 只能通过硬件固化 除了CPU和GPU Vera Rubin架构还整合了ConnectX 9网络芯片、BlueField 4 DPU
第六代NVLink交换机和 Spectrum X以太网交换机 ConnectX 9为每一颗GPU提供了每秒一点六六T·B的扩展带宽 来确保数据在芯片之间的高速流转 BlueField 4 DPU则是专门负责卸载存储和安全任务 让CPU和GPU能够全身心的投入到AI计算中 第六代NVLink交换机的传输速度达到了四百G·bps
单个机架的背板带宽就能达到每秒二百四十TB 相当于全球互联网总带宽的两倍多 让七十二颗GPU能够像一颗超级GPU一样协同工作 而Spectrum-X以太网交换机 是全球首款集成硅光子技术的交换机 拥有了五百一十二个通道 能够支持数千个机架组成的AI 工厂 实现海量算力的集群调度
为了让这套架构发挥最大的效能 英伟达在硬件工程上也下足了功夫 Vera Rubin的计算托盘经过了彻底的重新设计 取消了所有的电缆、软管和风扇 采用百分之百的液冷技术 冷却液温度保持在四十五摄氏度 这意味着数据中心不需要再配备昂贵的冷水机组 用热水就能冷却超级计算机 不仅大幅的提升了能效
还能为全球数据中心节省大约百分之六的电力 这对于规模庞大的数据中心来说 是一笔巨大的成本节约 整个Vera Rubin机架的重量接近两吨 包含了二百二十万亿个晶体管 却能实现峰值推理性能五倍、峰值训练性能三点五倍的提升 黄仁勋透露,这套架构已经全面量产 微软、CoreWeave等企业已经宣布
将部署数十万颗的Vera Rubin芯片 构建下一代的AI超级工厂 这不仅仅是一款产品的发布 更是英伟达为整个行业提供的算力解决方案 它将为AI原生应用的爆发 为物理AI的落地 提供了最坚实的基础 如果说Vera Rubin架构是这场革命的算力引擎 那么物理AI就是这场革命的应用灵魂
黄仁勋在演讲中反复强调 AI的下一个前沿 是从屏幕走向物理世界 也就是让AI不仅能理解文本、图像 还要能够理解物理规律 能与现实世界产生交互 对于人类来说,物体恒存性,比如 转过头再看,物体依然在那里 因果关系,比如推一下物体 它就会移动 重力,比如东西会往下掉
这些都是常识,但是对于AI来说 这些都是需要从头学习的复杂知识 那么 英伟达是如何让AI学会这些物理常识的呢?
答案是三机协作范式 也就是训练机、推理机、模拟机协同工作 再加上合成数据生成技术 让AI逐步理解物理世界的运行规律 这个范式的核心 是Cosmos世界基础模型 这是一款被黄仁勋称为理解世界如何运作的开源模型 Cosmos的训练数据来源非常的广泛 包括互联网规模的视频、真实的驾驶和机器人的数据
以及大量的3D模拟数据 但是这些数据还远远不够 因为物理世界的多样性和交互类型太过于复杂 仅仅是依靠真实数据 是无法覆盖所有场景的 于是,英伟达想到了一个绝妙的办法 那就是将算力转化为数据 通过合成数据生成技术 在模拟环境中生成符合物理规律的训练数据 比如
将一个简单的交通模拟器的输出 输入到Cosmos中 Cosmos就能生成物理上可信的环绕视频 让AI学习不同交通场景下的物理交互 这种方式不仅解决了真实数据的稀缺和昂贵的问题 还能生成那些罕见的长尾场景数据 比如在极端天气下的驾驶场景、复杂地形下的机器人移动场景 这些场景在真实世界中很难收集
但是对于AI的可靠性却至关重要 Cosmos的能力远不止于此 它能从单张图像中生成逼真的视频 能从3D场景的描述中 生成符合物理规律的运动 也能从驾驶遥测数据中生成全景视频 还能分析极端场景 将它拆解为熟悉的物理交互 并且能够推理接下来可能发生的事情 黄仁勋说
物理AI的ChatGPT时刻已经快要到来 而Cosmos就是开启这个时刻的钥匙 目前,Cosmos已经被下载了数百万次 不仅被英伟达用于自动驾驶、机器人等领域的研发 也被全球的开发者 用于各种物理AI的应用开发 通过Cosmos AI可以在模拟环境中行驶数十亿 甚至数万亿英里 学习如何应对各种复杂场景
然后再应用到真实世界中 这大大降低了物理AI的研发成本和风险 加速了技术落地的速度 而物理AI最具有代表性的落地场景 无疑是自动驾驶 在这次演讲中 黄仁勋发布了全球首款具备推理能力的自动驾驶AI 它被称为Alpamayo 并且宣布它已经与梅赛德斯奔驰达成合作 将搭载在二零二六款奔驰CLA车型上
于二零二六年第一季度在美国上路 随后将逐步推向欧洲和亚洲 Alpamayo的突破之处在哪里呢?
首先,它是端到端训练的 从摄像头输入到方向盘、刹车、加速等执行器的输出 整个过程由AI直接控制 不需要人工来定义中间的环节 这意味着,它不需要开发者手动编写 例如看到红灯就刹车 看到行人就减速等等这样的规则 而是通过学习大量人类的驾驶数据和Cosmos生成的合成数据 自己就能学会如何驾驶
更重要的是 Alpamayo具备了思考和推理能力 传统的自动驾驶系统 本质上是从感知到规划 再到控制的流水线 只能根据传感器的输入做出预设的反应 Alpamayo不同的地方在于 它会对自己的决策进行推理 会告诉你它将要采取什么行动 为什么要采取这个行动 以及预期的行驶轨迹 比如,在一个复杂的十字路口
它不仅仅能够识别出前方有车 还能推理出那辆车可能要左转 所以它应该等它先通过 这种类似于人类驾驶员的预判能力 正是解决自动驾驶长尾问题的关键 所谓的长尾问题 就是那些罕见的、但是可能发生的场景 比如道路上突然出现的障碍物 其他车辆的违规变道等等 这些场景无法通过收集足够的真实数据来覆盖
但是Alpamayo可以通过推理 将这些复杂的场景 拆解为一系列它已经学会应对的简单场景 从而做出正确的决策 为了确保绝对安全 Alpamayo还采用了双栈冗余设计 除了端到端训练的AI模型 英伟达还构建了一套完整的传统自动驾驶软件栈 作为安全护栏 这两套系统同时运行 由一个策略与安全评估器进行实时判断
如果当前场景是AI有足够置信度处理的 就由Alpamayo执行 如果是AI不太有把握的场景 就自动切换到传统软件栈 来确保驾驶的安全 更值得一提的是 梅赛德斯奔驰CLA车型 刚刚被欧洲新车安全评鉴协会 评为全球最安全的汽车 而Alpamayo系统是目前唯一一个从芯片、系统 到每一行代码
都通过了安全认证的自动驾驶系统 这意味着 它不仅具备了强大的推理能力 还拥有极高的可靠性 黄仁勋预测 未来道路上的十亿辆汽车 都将具备自动驾驶能力 无论是机器人出租车还是私人汽车 都将由AI驱动,而Alpamayo的发布 正是这个实现愿景的重要一步 如果说Vera Rubin架构和物理AI
展现的是英伟达的硬实力 那么开源模型生态就是它的软实力 也是黄仁勋反复强调的 让 AI无处不在的关键 在这次演讲中 黄仁勋特别提到了DeepSeek R1 这款开源推理模型的出现 点燃了全球开源AI的创新运动 他指出 开源模型已经达到了前沿水平 虽然目前还比最顶尖的闭源模型 落后大约六个月的时间
但是每隔六个月 就会有更聪明的新模型诞生 而它们的下载量已经呈现出了爆炸式的增长 为什么开源模型能发展得如此迅速呢?
因为它激活了全球范围内的创新力量 初创公司想要参与AI革命 大公司想要基于开源模型进行二次开发 研究人员想要探索AI的边界 学生想要学习最前沿的技术 几乎每个国家都不想被落下 这种全民参与的创新生态 是闭源模型所无法比拟的 而英伟达在开源生态中的角色 已经从单纯的芯片供应商
转变为了前沿模型的构建者和生态赋能者 它不仅开源了大量模型 还开源了训练这些模型所使用的数据 这在自动驾驶等对安全性要求极高的领域里尤为重要 因为只有数据透明 才能让用户真正信任模型的训练过程 目前 英伟达的开源模型已经覆盖了多个领域 在数字生物学领域 有用于合成蛋白质的La·Protein
有用于理解蛋白质结构的OpenFold 3 在地球科学领域 有用于理解物理定律、预测天气的Earth 2 在语言模型领域 有混合了Transformer和S·S·M高速模型的Nemotron 3 在机器人领域 有类人机器人控制模型Groot 以及自动驾驶领域的Alpamayo 除此之外 英伟达还提供了一整套的NeMo库 包括物理 NeMo库、生物NeMo库等
覆盖了AI的全生命周期管理 从数据处理、模型训练到部署和维护 开发者可以基于这些工具 快速构建自己的AI应用 黄仁勋认为 未来开源模型将成为全球最大的Token生成群体 因为随着参与的公司、研究的人员和领域越来越多 开源模型的多样性和适应性 将远远超过闭源模型 而英伟达的目标
就是通过开放这些模型和工具 让每一家公司、每一个行业、每一个国家 都能参与到这场AI革命中来 目前 英伟达的开源模型已经在全球范围内得到了广泛的应用 与Hugging Face等平台的合作 更是实现了两百万开发者与一千三百万AI创作者的生态互联 这种开放的、协作的生态 正是AI技术能够快速普及的核心动力
除了自动驾驶 物理AI的另一个重要落地场景是机器人和工业领域 黄仁勋在演讲中展示了一个机器人全家秀 从人形机器人、服务机器人 到工业机械臂、手术机器人 几乎涵盖了所有的机器人形态 这些机器人都有一个共同的特点 那就是它们都基于英伟达的Isaac平台进行训练
都内置了Jetson系列边缘计算芯片 都能通过Cosmos世界模型理解物理规律 比如,Boston Dynamics的人形机器人 能够在复杂的地形上行走、跳跃 甚至完成高难度的动作 这背后离不开Isaac Sim和Isaac Lab等模拟工具的支持 机器人可以在虚拟环境中反复训练 学习如何应对各种物理交互 然后再部署到真实世界中
大大降低了研发成本和风险 而英伟达的野心 远不止于消费级机器人 它正在将物理AI 深度融入到工业全生命周期中 与西门子、Cadence、Synopsys等工业巨头达成合作 推动一场新的工业革命 以西门子为例 它正在将英伟达的CUDA X库、AI模型和 Omniverse数字孪生平台
集成到自己的电子设计自动化和计算机辅助工程工具中 实现在计算机中设计 在模拟中制造 在现实中运行的工业闭环 想象一下 未来的工厂不再需要大量的人工操作 而是由物理AI驱动的机器人进行生产 产品的设计、测试、优化都可以在数字孪生环境中完成 这将大大的缩短研发周期、降低生产成本
甚至连工厂的维护 都可以由AI提前预测设备的故障 进行预防性的维护 这些就是物理AI带来的工业变革 黄仁勋指出,这场变革来得正是时候 全球各地都在兴建芯片、计算机、制药等领域的工厂 而全球劳动力短缺的问题又在日益加剧 我们比以往任何时候
都更需要由物理AI和机器人驱动的自动化 而英伟达与西门子等企业的合作 正是要抓住这个机遇 将AI与全球最大的物理产业结合起来 开启一个由物理AI驱动的工业新时代 要让AI在物理世界中长时间的运行 还有一个关键的问题需要解决 那就是存储 AI在进行多轮推理、多步协作时 会产生大量的上下文数据
也就是K·V缓存 这相当于AI的工作记忆 传统的存储方案 要么是将K·V缓存放在GPU内存中 但是GPU的内存容量有限、成本高昂 要么就是放在普通的存储中 但是访问的速度太慢 会拖累AI的运行效率 这个存储瓶颈如果不解决 再强的算力也无法充分的发挥作用 而英伟达在这次演讲中 给出了解决方案
就是由BlueField 4 DPU驱动的推理上下文内存存储平台 这套平台的核心思路 是在GPU内存和传统存储之间 构建一个第三层存储 既具备了接近GPU内存的访问速度 又具备了足够大的容量 能够支撑AI的长期运行 具体来说 BlueField 4 DPU负责在硬件层面 加速上下文数据的管理与访问 减少数据搬移的开销
Spectrum X以太网提供高速网络支持 实现数据的高速共享 而DOCA、NIXL 和Dynamo等软件组件 则负责优化调度和降低延迟 这套方案的效果非常显著 在特定的场景下 能够让AI每秒处理的Token数量提升5倍 能效也提升5倍 这个突破的意义非常重大 它让AI从一次性对话的聊天机器人
真正进化为了能够进行长期运行、持续思考、多步协作的智能体 想象一下 一个AI助理不仅能帮你处理即时的邮件和待办事项 还能长期跟踪你的工作进度和学习习惯 甚至能与其他的AI智能体进行协作 帮助你完成复杂的项目 这一切都离不开上下文内存存储平台的支持 而这套平台的推出
也标志着英伟达在AI存储领域的又一次领先 进一步完善了其全栈AI的战略 讲到这里 我们可以回头看看英伟达的整个布局 从Vera Rubin架构提供的极致算力 到Cosmos世界模型和 Alpamayo模型构建的物理AI能力 从开源生态的全面开放 到机器人、工业领域的深度落地 从芯片、网络到存储的全链路优化
英伟达正在构建一个完整的AI生态系统 一个能够支撑两场平台级革命的生态系统 黄仁勋的愿望很明确 英伟达不再仅仅是一家芯片公司 而是一家全栈AI系统公司 它要定义下一个十年的计算规则 要让AI从屏幕走向物理世界 成为我们生活中不可或缺的一部分 这场演讲
也许标志着AI时代正在从屏幕智能 走向物理智能的时代 而英伟达正站在这个时代的转折点上 期望引领着全球科技产业的发展方向 未来新的世界会如何 让我们一起拭目以待 感谢收看本期视频,下期再见
Loading video analysis...