你的浏览器OUT了o(╯□╰)o,想更好的浏览网站,请升级你的浏览器: IE8+ Chrome Firefox

产品中心

爱游戏体育娱乐:黄仁勋CES上硬菜:Vera Rubin已量产!为AI赌上6颗芯片

发表时间:2026-01-08 14:37:47 来源:爱游戏体育娱乐

爱游戏体育下载:

  这场在拉斯维加斯的90分钟演讲,是黄仁勋的开年演讲,给2026年定基调的意义非常明确。而整场演讲有很强的叙事设计——他要讲的故事逻辑是这样的:

  回顾2025年,scaling law还在继续,推动这样的一个过程里开源很重要,而英伟达做了很多开源,甚至第一次自称开源之王(NVIDIA Leads Open Model Ecosystem),尤其是物理世界的模型其实在由它来推动——而这一切都在证明强烈的需求还在继续,泡沫不存在,所以,新的芯片架构更加重要。

  “我能告诉你们,Vera Rubin已经在全面投产了”(I can tell you that Vera Rubin is in full production),黄仁勋在舞台上宣布。这是一个全面重构的芯片架构——从CPU到GPU,到互联方式,到机柜设计,六颗芯片全部重新设计。

  过去英伟达有一条内部准则:每代架构最多只改动1-2颗芯片。但这次,他们一口气重新设计了六颗。原因很简单,摩尔定律在放缓,但AI的需求在爆炸。模型规模每年增长10倍,生成的token数量每年增长5倍,单token成本每年下降10倍。

  “我们每年能获得的晶体管数量,根本不可能跟上10倍更大的模型、每年5倍更多的token生成”,黄仁勋解释道,“除非我们采用激进的、极致的协同设计,否则不可能跟上这种上涨的速度。”

  最关键的数字是这个,NVFP4推理性能达到50 PFLOPS,是Blackwell的5倍,但晶体管数量只有3360亿,仅增加了1.6倍。这在某种程度上预示着架构效率的巨大飞跃,而不单单是堆料。HBM4带宽达到22 TB/s(2.8倍),单GPU的NVlink带宽达到3.6 TB/s(2倍)。

  这背后是NVFP4 Tensor Core的创新——一种新的4位浮点格式,通过硬件层面的自适应精度调节和动态transformer引擎实现。黄仁勋暗示这有几率会成为行业标准:“我不会惊讶于整个行业都希望我们把这个格式和架构变成行业标准。”

  这是英伟达第一次在数据中心CPU上如此激进地自研。Olympus核心是全新设计,不是ARM公版的修改。黄仁勋在台上展示了从Blackwell到Rubin的硬件演进,亲手拿起计算托盘——“你必须是一个身体健康情况很好的CEO才能干这个活”””(You have to be a CEO in really good shape to do this job),他开玩笑说。

  这颗芯片采用TSMC的COUPE工艺,实现102.4 Tb/s的交换机基础设施,128个800 Gb/s端口,512个200 Gb/s端口,3520亿晶体管。黄仁勋说这让英伟达“成为了全球最大的网络公司”。

  配合新一代NVlink 6.0,单GPU带宽达到3.6 TB/s,整个NVL72系统的互联带宽达到260 TB/s。黄仁勋的比喻是,“这是全球互联网带宽的两倍”,全球互联网总带宽大约是100 TB/s。

  黄仁勋特别强调了一个正在浮现的问题:context memory正在成为新的瓶颈。

  随着上下文长度增长、多轮对话累积、并发用户增加,KV cache的存储需求在爆炸。BlueField-4 DPU就是未解决这个问题,800G Gb/s的SmartNIC和存储处理器,内置64核Grace CPU,相比上代在网络、计算、内存带宽上分别提升2倍、6倍、3倍。

  新的计算托盘设计是“No Cables, No Hoses, No Fans”,无线缆、无水管、无风扇。过去组装一个计算节点需要2小时,现在只需要5分钟。黄仁勋在台上亲自演示,把托盘像抽屉一样滑入机柜。

  整个系统100%液冷,使用45°C的热水,不需要冷水机。今天这台机器重2.5吨,因为他们发货的时候忘了把水放掉,黄仁勋开玩笑说。整机包含2英里的铜缆和5000根线缆,但因为采用了新的无线缆托盘设计,实际部署时的复杂度大大降低。

  虽然性能是Blackwell的5倍,但热设计保持在同一水平,这在某种程度上预示着在相同的数据中心功率预算下,能够得到5倍的算力提升。

  黄仁勋用DeepSeek++(对未来超大规模开源模型的一种代称)和Kimi K2Thinking展示了三组性能对比。

  这组数据的含义很清晰,对于训练大模型的公司来说,Rubin意味着用更少的硬件、更低的成本、更快的速度完成同样的任务。

  算力基础设施最终是为了让AI理解和操控物理世界。除了造“大脑”,英伟达也在教AI控制“身体”,演讲中另一个有必要注意一下的发布是Alpamayo。

  这是一个开源视觉-语言-动作模型(VLA),专为无人驾驶设计,支持chain-of-thought推理来处理边缘场景。输入是多摄像头视频、自车运动历史、可选用户指令,输出是驾驶决策、因果推理、轨迹规划。

  值得注意的是,英伟达不仅开源了模型,还开源了训练数据。“我们不仅开源模型,还开源用来训练这些模型的数据。因为只有这样,你才能真正信任这些模型是怎么来的。”

  回看整场演讲的结构,黄仁勋想传递的信号很明确,AI的需求还在爆炸式增长,scaling law没有撞墙,英伟达的护城河不仅是芯片设计能力,更是总系统级的极致协同优化能力。

  当摩尔定律放缓时,只有通过“激进的、极致的协同设计”,例如六颗芯片同时重新设计,才能跟上AI发展的速度。而且这一切都不是空话,Vera Rubin已经在全面投产,不是路线图,不是期货,是现在就在产线年,云厂商和AI公司将拿到比Blackwell强5倍的新硬件。

  这个开年演讲相比过往黄仁勋的演讲要“干”很多,看来2026年黄仁勋不讲故事了,要直接上干货,上硬菜了。

,爱游戏平台官网入口优惠
回到顶部