LongCut logo

深度解析2026 GTC:英伟达万亿订单背后的AI大爆发、Token经济学与失衡供应链

By 硅谷101

Summary

Topics Covered

  • 芯片层利润转移路径揭示竞争本质
  • 开源模型将token价格打至十分之一
  • Groq如何破解推理延迟难题
  • 黄仁勋百亿美元布局光通信底座
  • AI供应链超级周期比以往任何时候都疯狂

Full Transcript

一万亿 Blackwell和Rubin的订单 到2027年 至少1万亿美元 性能提升50倍 我们的单个token成本是全球最低的 你不可能打败我们 推理之王 Hello 大家好 欢迎来到英伟达2026年GTC大会 又是一年过去了 我们来看看黄仁勋要讲什么新故事 ChatGPT爆发的三年半之后

黄仁勋开始停止了讲芯片的故事 他开始瞄准更大的叙事 token经济 而这 将是更有野心且更持久的市场蛋糕 这个视频 我们将拆解英伟达的 “五层蛋糕”生态体系 一万亿美元的收入是怎么算出来的 基于Groq的LPU 将给英伟达带来什么新的机会 还有黄仁勋在光通信上的提前布局

以及未来Scale-across(跨域扩展)的 AI工厂机会 以及OpenClaw的里程碑之后 英伟达押注的token经济学将会如何发展 给算力市场将带来了如何的挑战 token的推理使用量事实上是一直在暴增 每一个组件开始亮红灯 我讲亮红灯是指就开始大缺货 然后开始大涨价 现在的产能还是没有办法跟当时老黄

所预计的产能达到一致 这个是我们从来没有看到过的 (内存)supercycle(超级周期) 大概率也要到2028年才能有 实质性的(供应)上涨 在整个(光通信)产业链上这种投资 可以帮助这些公司 在下一代的技术中做更多的革新 (一万亿)这个数字是到现在为止 他看到的实实在在的订单 2027年就是十三、四(美元)的EPS(每股收益) 最完整、最全面 你想要什么东西我都有

把token的价格打下来 最后赚钱的 又回到了英伟达这边 那就跟我走进2026年的英伟达GTC 跟我来 2026年的英伟达的GTC叙事 建立在两个背景和事件 第一是AI应用得到落地 第二是OpenClaw的爆火 带动了全球的agent生态 这让黄仁勋在GTC演讲中高呼 推理拐点已经到来

终于 人工智能能够从事生产性工作了 因此推理的拐点已经到来 新云(Neocloud)厂商GMI Cloud创始人 Alex Yeh在跟我们对话中就透露 北美的需求暴增是来自多模态和编程 而OpenClaw带来的token需求则主要来自中国

token的推理使用量 事实上是一直在暴增 而且是以倍数的方式在增长 我们的客户事实上 也从大型的训练客户 到转到很多的推理需要的 边缘端的节点 (美国这边)一个是以代码生成为首的 推理调量 还有另外一个是多模态的 视频和图片生成

这两个发展的速度都太快了 我觉得在OpenClaw这一块 美国的市场事实上还没有意识到 这个影响究竟有多大 Alex的观察和我们最近在硅谷 与很多业内人士的探讨是相似的 因为北美用户 特别是有技术背景的开发者 已经很适应Claude Cowork 去做一些agent任务

所以虽然OpenClaw是从硅谷火出圈的 但是远没有到国内那么卷的程度 我觉得这个东西是从国内火到这边来 可是国内已经先开始一波了 现在事实上也在Mac Mini上面 或者说在DGX Spark上面在跑 可是我觉得这不是一个常态 因为这东西绝对之后都是上云的

毕竟部署一个PC的成本实在是太高 而且我看到很多的硅谷公司 已经在做一个零代码 就是一个用户界面非常好用的OpenClaw 随着这个模型越来越好 开源和闭源的模型越来越好 它的调用量会越来越高 所以我才说

我觉得我们甚至连1%或5%都还没有到 可是光是这样子 全球(算力)就已经没了 这样子 所以我觉得事实上才刚开始 我觉得事实上(token调用规模) 未来发展是超级可怕的 所以 以上是目前AI发展现状的一个大背景 有了推理需求飙升 和OpenClaw爆火这两个趋势

黄仁勋的整个演讲的叙事逻辑 就完全和去年不同了 以前英伟达卖芯片给云厂商和AI公司 而如今 老黄要卖token给全世界每一家公司 每一个企业 全球的每一家软件公司 都需要一套智能体系统 需要一套智能体策略 需要拥有一套OpenClaw策略

这也是我参加今年老黄keynote的最大感受 黄仁勋的姿态就是we love everybody 你看看这种PPT slides上面的这些小心心 所以 今年GTC的最关键主题是“生态” 而不是“芯片” 早在GTC开会的几天前 英伟达就放出了一篇 名为“AI五层蛋糕”的文章来为大会造势

预示黄仁勋在今年大会上强调的是 垂直整合能力和生态 而不是单芯片 我们一会儿也会来详细拆解这五层蛋糕 简单来说 黄仁勋给外界画了一个更大的饼 我们先来说黄仁勋在GTC演讲中 提到的一万亿美元这个数字 黄仁勋在去年的GTC上说

当前和下一代的GPU架构 Blackwell和Vera Rubin的订单收入 从当时到2026年年底会达到5000亿美元 而这一次 他将这个预期直接上调了一倍 说截止现在 到2027年年底 预计光是Blackwell和Vera Rubin的订单收入 就会直接到1万亿美元 要注意 这个收入是不包括英伟达新发的CPU

和基于Groq的LPU芯片等其他产品线的订单收入 这两个产品我们一会儿会讲到 而光是GPU架构的订单 老黄在媒体闭门会上专门特别澄清 原因是因为这样外界能直观的感受到 英伟达的GPU上的业务增长 如果我把这1万亿(的业务范围)进行更改 将CPU、Groq以及存储包含在内

那就会把两件不同的事情混为一谈 这样我在进行比较时就不够简单直接了 然而 对其他人来说 理解这1万亿的复杂之处在于 既然英伟达今天能提供多得多的产品 难道我们是在暗示 Blackwell加上Vera Rubin(的规模) 还不到1万亿吗 不 情况恰恰相反 首先这个数字我觉得 非常achievable(可实现的)

这是第一 第二 这个数字是 到现在为止它看到的实实在在的订单 可能过几个月咱们回头再看这个数字 它还有新的订单出来 这一万亿的数字还会往上走 我觉得它的意义 从一个financial analysis(财务分析) 角度来说 它的意义就是说 给2027年的营收和利润划了一个底 就告诉你这个底在这了

然后你把这 它这一万亿的数字放在那模型里面 可能2027年就是十三、四块钱的EPS(每股收益) 就是把这个底给你划出来 而对于各大企业对算力的资本支出CapEx 我们的嘉宾认为是还将继续上涨 一边是推理需求会继续上涨 另一边的原因是随着前沿模型的竞争趋于白热化 训练这边的需求也不会降低

我觉得从百分比的增速来说 会放慢 但是它肯定还是一个快速增长的状态 然后每年增长的绝对值数量 我觉得不一定会变小 Inference(推理) 这边的用量肯定是 现在很明明显看到在有一个inflection(拐点) 然后大家对agent的用量明显提升 对于token的消耗量明显提升 这是第一 第二个 其实我觉得 从模型厂商的角度来说

frontier lab(前沿实验室)这几家 大家没有谁能明显地 拉开和其他人的身位 大家都是在一个交替领先的状态 包括开源的这些大模型 其实现在也没有说 明显地比闭源的 这些proprietary(专有)模型 要落后非常远 我觉得对于模型厂商来说 他后面就可能只有两条路 要不就是往上打

因为只有你做了application(应用)之后 你能做出用户粘性 然后你通过应用去收钱 另外一条路就是 用你的balance sheet(资产负债表)也好 用你的cash(现金流)的优势也好 你去更大力度地怼算力 然后去怼人才 希望你在模型上面能有一个突破 就是你花钱花得比别人更狠 OpenAI我觉得之前有一段时间 它是想走这条路

包括去年Sam Altman 他喊出来1.4万亿这种数字 我觉得就是这两条路 这么一个分化 所以我觉得 这两条路大家都还会继续去做 所以对CapEx(资本开支)的投入 一定不会小 其实还有侧面的一个点 为什么黄仁勋今年不强调单芯片 连Rubin再下一代计算架构Feynman 也只是略微提了一点

除了老黄要把英伟达的企业叙事 拔高到“AI factory” 以及要给所有人卖token之外 其实还因为产能跟不上 市面上还是疯狂缺卡 现在市面上大家根本买不到最先进的卡 就连两三年前发布的旧卡 H100、H200用了几年甚至能超原价卖 同时软件生态和各种配置

也都跟不上老黄的速度 所以他再强调单卡的性能提升 对市场来说根本没有意义 现在市场上最成熟的平台 依然是Hopper平台最多 Blackwell在最近几个月 开始进入一个大规模应用的阶段 并且我们看到了软件层也有比较好的进步 但是我们回想一下 其实Blackwell是在两年前 就已经被宣发了的 所以我觉得一个原因就是因为

现在的产能还是没有办法 跟当时老黄所预计的产能达到一致 所以看起来 光是GPU的售卖 这一万亿美元的收入规模并不算过度乐观 而是真有这样的需求量 但显然 黄仁勋是不满足这一万亿的 他布局的是全生态 当token成为大宗商品 “算力即收入” 黄仁勋接下来的动作

是想把他定义中的“AI五层蛋糕”给全部打透 让英伟达持续成为AI产业线中 持续最赚钱的机器 接下来 我们来看看五层蛋糕背后 老黄的野心 来看看黄仁勋定义的AI“五层蛋糕” 从下到上 分别是能源层 这里是电力等基础供应 之后是芯片层

也就是英伟达的核心业务:卡 再之上是基建层 包括了云厂商以及旗下的数据中心 再往里面细分是土地、供电、冷却系统 建筑工程、网络通信等等 前三层被统称为AI工厂 (AI Factories) 再往上 模型层有OpenAI 谷歌Gemini和Anthropic这样的顶尖模型

也有包括英伟达自研的一系列开源模型 而在最上层的应用层 则是英伟达针对不同的赛道研发技术 包括机器人、自动驾驶、工业制造 编程和企业级AI agent等等 你是不是有点疑惑 老黄是在布一盘什么局呢 这五层蛋糕难道每一层英伟达都能吃透吗

你如果把其他这几层 能够去commoditize(同质化)掉 或者说把他们的利润打下来 然后利润就集中到你这一层 就是这一层里到底谁是bottleneck(瓶颈) scarcity value(稀缺价值) 到底是集中在哪一层 之前那几年其实这个稀缺价值 完全是集中在芯片这一层 所以Nvidia吃到了这一轮 绝大部分的利润和蛋糕 但是上面几层 其实都还是非常有实力的

我们的嘉宾任杨就认为 每一层蛋糕中 如果每个玩家的水平都差不多 没有绝对领先或者绝对垄断者 那么这一层的利润就会被摊薄 议价权最终还是会回到 有绝对领先和垄断的这一层 也就是英伟达的芯片层 也就是说 最终黄仁勋还是要靠卖芯片 但在其它层的蛋糕中

英伟达要扶持起自己的软件生态 定义规则 就像打造CUDA这样的护城河一样 一旦在新的市场定义了范式 当市场爆发 大家发现最好用的还是英伟达的平台 那最后要买的依然是英伟达的算力和卡 比如说 英伟达看到基建层 像谷歌云和AWS这样的云厂商 有强议价权之后

又扶持起了像CoreWeave和Nebius 这样的New Cloud 也就是新云平台来进行竞争 再比如说 在模型层 英伟达各种大小模型开源了一大堆 而且这次黄仁勋是专门组织了一场 全球最核心的开源模型论坛 就是想在模型这一层 试图在长期削弱 最SOTA (State of the Art) 的顶级闭源模型的议价权

而在应用层 英伟达也在研发自动驾驶和机器人 等待行业大规模的爆发 为的就是提前布局生态位 如果Nvidia能够鼓励 或者带领 open-source community(开源社区) 能够快速迭代 把token价格打下来 虽然说Anthropic也好 OpenAI也好 他们在卖API这个事情上 卖inference(推理)、卖token这个事情上 他们是赚钱的

比如说开源模型能够做到 现在的前沿实验室的 这些SOTA model(最先进的模型) 的 90%的performance(性能) 但是10%的价格 那这些token的价格一定会被打下来 然后就把模型这一层 把卖inference(推理) token这一层 把它commoditize(同质化)掉 整个ecosystem(生态)里面 最后赚钱的 又回到了Nvidia这边 所以老黄正在时刻关注的其他层级的蛋糕

但最赚钱的 始终还是芯片这一层 所以这一层也是黄仁勋盯得最紧的 而这次的GTC上 传达出两个信号 第一个信号就是在芯片层 老黄发布了基于Groq研发出的LPU 要知道 对Groq的非独家技术授权交易 是去年12月圣诞节前后才宣布的 花了200亿美元现金

可以说是英伟达有史以来最大的一起交易 Groq创始人Jonathan Ross 在最新的福布斯杂志采访中爆料说 和Groq的交易这件事情 也是老黄只花了三周就迅速做的决定 而到如今的GTC才3个月 产品就已经出来了 只能说 老黄和英伟达卷起来真的没其他人什么事儿了 那为什么黄仁勋要“收编”Groq呢?

简单来说就是GPU架构 即使强如Vera Rubin 擅长的是高吞吐的并行计算 做Prefill 也就是上下文预处理 和Attention 注意力计算很厉害 但在做超高速的token生成 也就是Decode这个任务上 就没那么给力了 因为token生成的特点 是token只能一个一个的生成 整个过程必然是串行链式的

对于每一步延迟都极其敏感 所以“高吞吐”和“低延迟”本身互相矛盾 很难两全 而Groq就是这个矛盾的解法 LPX发挥作用的地方就在于那些极高交互率的场景 单独的Rubin非常适合用来 处理绝大多数的推理工作负载 当涉及到超大模型、超长上下文

以及极高交互性时 这就是LPX发挥作用的地方 它能为Vera Rubin提供额外的提升 Groq通过SRAM 也就是静态随机存取存储器设计 天生就适合做推理和token生成 就像Groq创始人Ross 打动黄仁勋的那个类比 他说强大的GPU就像“18轮大卡车” 但推理任务就像“最后一公里配送”

本身就更适合更加灵活高效的面包车 他对老黄说 如果你要为美国建立一个物流网络 最佳答案是 18轮卡车和面包车你都需要 而在OpenClaw之后的agent时代 老黄通过与Groq的深度技术与人才合作 解决了token生成的挑战 这是非常关键的一步

而Groq的新芯片融入英伟达体系后 英伟达宣称这将解锁3000亿美金的增量市场 可以说 这200亿花得值了 但还有个内存上的小难题 SRAM缺点是第一很贵 第二很占面积 第三容量做不大 我们来对比一下 单颗Groq 3 LPU只有500MB的SRAM

而Rubin的GPU是288GB的HBM4 差了500多倍 根本存不下万亿参数的模型 英伟达的解法是用Dynamo软件 把推理过程拆成两半 Vera Rubin这边的GPU 负责Prefill(预填充) 和Attention(注意力机制) 而Groq负责之后Decode和token生成 所以我们看到 一颗Rubin GPU配上8颗Groq 3 LPU

统一为一个推理单元 而Groq 3 LPX整机 把256颗的LPU装进了一个机架 能够提供128GB SRAM 40 PB/s带宽 315 PFLOPS的推理算力 和640 TB/s的互连带宽 英伟达和Groq的这个交易 目前还面临反垄断的一些潜在调查 因为涉嫌“变相收购” 虽然这个做法已经是硅谷巨头

在AI时代的基本操作了 但是现在LPU已经和三星在合作量产了 预计今年第三季度出货 而Vera Rubin机架 已经在微软Azure云上运行 同时 英伟达联手Groq还有一个战略上的意义 就是打出了ASIC反击战 我们之前节目说过 ASIC是专项芯片 虽然不如GPU那么通用

但如今却是各大科技巨头自研的重点 以及各个云厂商也都在扶持ASIC芯片的研发 试图蚕食英伟达GPU的利润率和议价权 包括谷歌的TPU也是ASIC芯片 Groq本身也是AISC芯片 但英伟达这次告诉外界 诶我也可以做ASIC芯片啊 而且还跟我自己的GPU结合 性能更强哦

但是有了这种架构 我们将把我们的token生成速度 生成率从200万提升到7亿 实现了350倍的增长 这就是extreme co-design(极致协同设计) 这就是我所说的 我们在垂直方向上进行整合与优化

然后再在水平方向上将其开放 供所有人享有 好 我们再来看看芯片层的第二个关键词 CPU 是不是有种“枯木逢春”的感觉 AI agent时代token经济的崛起 不但救了Groq一命 连老古董CPU也重新成为了香饽饽 虽然GPU擅长训练和运行AI模型 但随着agent工作负载的不断增长

这些系统需要传输海量数据 并且协调跨多个智能体的工作流程 这使得CPU在现代AI基础设施中的重要性 丝毫不亚于GPU 所以 英伟达在这次GTC上 就发布了Vera CPU 这被称为全球首款 专为代理式AI与强化学习时代 打造的处理器 它的效率是传统机架级CPU的2倍

速度提升50% 包括AI编程明星公司Cursor 也在为Vera CPU站台 说提升了他们的整体吞吐量与效率 给客户带来了更快速灵敏的 编程agent体验 这些CPU是专为AI工厂打造的 当你们的GPU进行推理或强化学习训练时 它们会生成大量的软件代码

因此 这些代码需要被评估 它正确与否 然后反馈需要传回给GPU CPU承担了评估这些代码的任务 所以在那个阶段 你需要一个非常快的CPU 来向GPU提供评估反馈 这样GPU就不需要加权了 这就是为什么我们专门打造这款产品 它具备极高的单核性能

以及极大的内存带宽 这样数据就可以无缝移动 并且所有环节都能达到 非常出色的机架级性能效率 所以 将所有这些结合在一起 就成就了一款非常适合智能体任务 和AI工厂的理想CPU 在芯片层这里 还有一个秘密武器就是CPX 这是黄仁勋在去年9月的 AI基础设施峰会上推出的

专门针对长语境推理进行优化的芯片 可以说是代表了GPU设计的一个全新类别 这款芯片能够处理 百万级tokens的软件编程和生成式视频 在速度和效率方面实现突破性提升 被外界认为能够进一步稳固英伟达 在推理上的优势 有意思的是 老黄这次的演讲中根本没有提到CPX

也让业界很好奇 英伟达目前在芯片层的这套组合拳 GPU,CPU,LPU,CPX 是否会进一步拉开与竞争对手的差距 我的理解就是说 他在根据不同类型的workload(工作负载) 他都有能够拿出来非常好用的产品 然后放到他的机柜里面 但是他是想要去给你提供一个

最完整、最全面 你想要什么东西我都有 如果你全都买我的东西最方便 是这么一个感觉 总结一下 这五层蛋糕互相支撑但又互相牵制 黄仁勋在做的是要整合这五层 确保英伟达在每一层都有话语权 无论是扶持甲方的竞争对手 还是自研开源模型 还是在不同领域保持开放合作 来定义行业入口和范式

英伟达的叙事早已经不是“芯片”而已了 黄仁勋在发布会上手握单芯片的 那些名场面已经成为过去 未来是完整的AI Factory 是更宏大的token经济学 这让英伟达的“护城河”也早已超越CUDA 让竞争对手们更难攻破它的生态帝国 我还想提到的一点是 黄仁勋一直在布局下一个即将爆发的产业

也对前沿技术非常的敏锐 他这次在发布会上没太多提共封装光学CPO 以及数据中心中机组的Scale-up和Scale-out 但英伟达在3月初分别向光子技术巨头 Lumentum和Coherent 各注资20亿美元 并且锁定了数十亿美元的采购承诺 以及未来产能权益

这两家公司都是CPO的核心供应链 业内人士就认为 黄仁勋这是在准备为下一代 “吉瓦级AI工厂”去铺垫光互联的底座 一个是Lumentum 它是现在唯一的高功率激光器 DFB的一个供应商 就是400 milliwatt(毫瓦) 然后在最近的OFC会议上 他们也提到了一个更高的参数 就是一个watt(瓦) 这样子的 很强光率功率的激光器

然后另外一个是Coherent 这个的话是在硅光光子学中 有很多的技术积累的一个 之前几个公司合并在一起的公司 这两家公司 一个是他们是美国公司 二是有多年的技术积累和专利的积累 三是在整个产业链上 这种投资可以帮助这些公司 在下一代的技术中做更多的革新 谈到技术革新就可以看到说 这一次他们更多的革新是在封装方面

比如说2.5D到3D的封装 但是接下来这两家公司还在进行 之后更多很先进的新技术的研发 比如说使用更多的光波长一起进行通信 进一步地增加它的这个bandwidth密度 它的这个带宽的密度 还有使用一些更加先进的技术 比如说不同的放置激光器的方法 甚至探索一些不同的波段

然后不同光纤的参数等等 更下一步的技术革新 目前产业里面还在讨论Scale-up和Scale-out 而行业人士说 黄仁勋已经在思考说再下一步 Scale-across 也就是不同数据中心的互联怎么去解决了 对于不同的距离的场景 比如说Scale-up(纵向扩容) 我们可能谈论的是毫米量级

然后scale-out(横向扩容) 我们可能讨论的是米量级 然后Scale-across(跨域扩展) 我们可能讨论的是千米或者更远的量级 在这些不同量级之下 什么是一个最优的技术路线 我们还是用现在的波长 还是要换成一个其他的波长 会不会有一个技术 是用现在这种光纤 还是一种中间是空着的光纤 会不会有一个技术突然出现就砸了场子 把一个其他的技术都带跑了 都是很有意思的一些讨论

当然 还有更遥远的一些布局 包括在演讲中黄仁勋提到的太空数据中心 这个实现方式和挑战 我们之前做过一期内容聊到过 在这期视频的最后 我还想稍微聊聊整个芯片和数据中心供应链 目前的一个情况 如果大家还记得 我们之前说到的“五层蛋糕” 可以看到能源和数据中心供应链

这个基础层决定了芯片的产能 也决定了整个AI模型和应用 能否得到足够的算力支撑 也决定了AI的进程 我们在GTC期间跟供应链的朋友聊天 得到的信息是 缺 什么都短缺 我们事实上是了解 所有的元器件 到内存端 所有的这个硬件的 还有什么CX7等等

这些子元器件的 缺货情况 事实上现在每一个元器件 开始亮红灯 我讲“亮红灯”是指开始大缺货 然后开始大涨价 从去年的T-1年(365天前) DDR4 就是DRAM 现在是过去的10倍(价格) 有点疯狂 然后现在CX7也在缺货 然后电源供应也在缺货

就开始缺了 CPU也是 也是很多是内存问题 各个供应链开始缺 我看到OpenClaw这个起来 agent起来 多模态的起来 还有以及编程的起来 刚好三个是一个完美的风暴 然后所有的供应链就跟不上这个节奏 Alex对我们表示 最近全球地缘政治

特别是中东的局面让能源价格异常波动 这也给全球AI数据中心的能源供应 带来了更高不确定性 但能源这一部分大概会占到 token定价的10%左右 而让token价格高居不下的 还是供应链短缺带来的价格飙升 特别是内存方向 我觉得影响最大的 事实上还是system

就是服务器系统的内存的涨价 而造成token价格的增加 而我们也在展会现场 采访到了内存市场的决定性大赢家三星 他们认为 紧缺的状态至少要持续到27年年底 这个是我们从来没有看到过的 supercycle(超级周期) 就之前几年也有 但是 那个时候更多是

比如说手机电脑端的 我互联网端的一些需求 但是今年整个就是AI 然后我们看到说2026年 其实已经是完全的sold Out(售罄) 2027年我们认为也还是会在紧缺的状态 产线我们都已经在投入了 但是大概率也要到2028年 才能有实质性的这么一个上涨 对

然后这个supercycle(超级周期)的话 很多的buyer(采购方)都是cloud 都是这种data center(数据中心) 他们对于这个成本的敏感度是比较低的 他们也比较愿意花钱去买 所以其实整个内存的短缺 或者说是需求量 我们认为在接下来两年还是会比较强的 而关于内存市场

我们马上也会出一期深度视频 单独来聊聊这个行业的现状 主要玩家和挑战 关注我们 不要错过更新 以上就是我们这次的参会体验 给我的感觉是 随着Agentic时代的来临 非常多的范式会发生变化 有机遇 也有挑战 而GTC依然会是AI行业的指路标 我们也会为大家继续地关注 以上我们提到的这些产业和方向

不知道在一年后的GTC大会 我们的世界会被AI加速多少呢 以上就是我们这期视频的全部内容 你们的点赞、留言和转发 是支持我们《硅谷101》 做好深度科技和商业内容的最佳动力 我是陈茜 那我们就下期视频再见了 再见

Loading...

Loading video analysis...