
IT之家 1 月 10 日消息,科技媒体 Toms Hardware 今天(1 月 10 日)发布博文,报道称在 CES 2026 媒体问答会上,针对市场上采用廉价内存以降低成本的声音•…•,英伟达首席执行官黄仁勋反驳道-■:“
黄仁勋强调★,AI 行业已进入○“Token 经济学●★▼”时代■◇,核心指标是“每瓦 / 每美元能生成多少 Token”。
英伟达坚持统一的内存架构和软件栈,虽然硬件成本较高,但能避免软件生态碎片化=◁。这意味着-■,当Nvidia优化一个软件栈后▽,全球所有基于该架构的 AI 工厂都能同步获得性能提升▼,从而在长周期内实现更优的总体拥有成本(TCO)。
谈及行业趋势-,黄仁勋透露了一个关键数据◇☆•:开源模型目前已贡献了全球约四分之一的 Token 生成量。这一“意料之外□△”的爆发式增长,极大地拓展了 AI 的部署场景,从超大规模云厂商延伸至企业本地集群▽。
黄仁勋在问答中还详细展示了 Vera Rubin 平台的模块化突破▼。相比以往 Grace Blackwell 系统一旦故障需整机架下线的情况,Rubin 采用了托盘式架构,支持在系统运行时直接更换 NVLink 等组件▷▪,实现□☆“边跑边修▪=”▽。
IT之家援引博文介绍•,这种设计不仅大幅降低了运维成本▲▼,更彻底重构了供应链效率:节点的组装时间从过去的 2 小时惊人地缩减至 5 分钟。此外,Rubin 平台摒弃了繁杂的线% 全液冷◇,进一步提升了系统的可靠性△。
供电稳定性被黄仁勋称为当前算力扩张的◁■“最大瓶颈”■。由于现代 AI 负载(尤其是推理任务)会引发剧烈的瞬时功耗跳变,电流波动幅度往往高达 25%▲•,迫使数据中心不得不闲置大量电力以应对峰值。
Rubin 平台通过系统级电子设计,在机架内部“平滑”了这些波动,即便单颗 GPU 的热设计功耗(TDP)高达 1800W,也能向外部电网呈现稳定的负载曲线。这种设计让运营商无需过度冗余配置▪,从而能接近 100% 地利用电力容量●◁◆。