英伟达黄仁勋:AI 芯片是一锤子买卖,但软件开发需终身维护

抖音秀百科网 网络资讯 3

1 月 10 日消息,科技媒体 Tom's Hardware 今天(1 月 10 日)发布博文,报道称在 CES 2026媒体问答会上,针对市场上采用廉价内存以降低成本的声音,英伟达首席执行官黄仁勋反驳道:“芯片是一锤子买卖,但软件开发需要终身维护。”

黄仁勋强调,AI 行业已进入“Token 经济学”时代,核心指标是“每瓦 / 每美元能生成多少 Token”。

英伟达坚持统一的内存架构和软件栈,虽然硬件成本较高,但能避免软件生态碎片化。这意味着,当 Nvidia 优化一个软件栈后,全球所有基于该架构的 AI 工厂都能同步获得性能提升,从而在长周期内实现更优的总体拥有成本(TCO)。

谈及行业趋势,黄仁勋透露了一个关键数据:开源模型目前已贡献了全球约四分之一的 Token 生成量。这一“意料之外”的爆发式增长,极大地拓展了 AI 的部署场景,从超大规模云厂商延伸至企业本地集群。

黄仁勋在问答中还详细展示了 Vera Rubin 平台的模块化突破。相比以往 Grace Blackwell 系统一旦故障需整机架下线的情况,Rubin 采用了托盘式架构,支持在系统运行时直接更换 NVLink 等组件,实现“边跑边修”。

援引博文介绍,这种设计不仅大幅降低了运维成本,更彻底重构了供应链效率:节点的组装时间从过去的 2 小时惊人地缩减至 5 分钟。此外,Rubin 平台摒弃了繁杂的线缆设计,并从 80% 液冷升级为 100% 全液冷,进一步提升了系统的可靠性。

供电稳定性被黄仁勋称为当前算力扩张的“最大瓶颈”。由于现代 AI 负载(尤其是推理任务)会引发剧烈的瞬时功耗跳变,电流波动幅度往往高达 25%,迫使数据中心不得不闲置大量电力以应对峰值。

Rubin 平台通过系统级电子设计,在机架内部“平滑”了这些波动,即便单颗 GPU 的热设计功耗(TDP)高达 1800W,也能向外部电网呈现稳定的负载曲线。这种设计让运营商无需过度冗余配置,从而能接近 100% 地利用电力容量。