← 返回 2026-03-26 精选

全球程序员将破 10 亿!黄仁勋:智能终将廉价,人性才是未来核心竞争力|【经纬低调出品】

来源:经纬创投 · 分类:公司研究 · 9/10 · 查看原文 ↗
💡 黄仁勋的观点深刻影响AI行业,Token经济模型可能重塑计算定价,推理算力需求挑战当前轻量化趋势,电力与供应链策略提供创新解决方案,推动行业向高效、可持续方向发展。

近日,英伟达CEO黄仁勋做客知名科技播客Lex Fridman Podcast,二人探讨了从公司战略、技术演进到个人哲学的广泛议题。不过,黄仁勋也提出了一系列颠覆性的观点,这些观点在技术本质、算力分配、管理哲学以及人工智能对社会的影响等方面,均与当前的主流看法存在着不同的视角和看法,具体如下:1.Token 重塑计算经济AI 计算从存储检索的 “仓库” 升级为生成 Token 的 “工厂”,Token 成为细分定价的全新商品(分层免费 / 中级 / 高级 Token),单百万 Token 可定价 1000 美元;计算设备从成本中心转为利润中心,全球计算相关 GDP 占比将较过去翻百倍。2.推理(Inference)并非“轻量级”任务 黄仁勋的观点:他认为推理本质上就是“思考”(Thinking),而思考是非常困难且消耗算力的。他指出,推理涉及逻辑推理、规划、搜索和解决未知问题,这比单纯的阅读(预训练)要复杂得多。因此,“测试时缩放”(Test-time Scaling),即通过投入更多算力让 AI 思考更久,将成为提升智能的关键,推理绝非低功耗任务。3.英伟达有望迈向10万亿美元市值?英伟达增长确定性预判10 万亿美元市值仅为数字概念,英伟达增长为必然趋势,未来有望实现3 万亿美元营收体量。4.AI 电力瓶颈双解法能效端:以 “每瓦每秒 Token 数” 为核心指标,通过极致协同设计让 Token 成本每年降一个数量级;电力供给:利用电网 99% 时间的闲置峰值电力,放弃 “六个九” 绝对可用性,打造可优雅降级的数据中心,按需降载减耗。5.对供应链瓶颈的“反向思维”黄仁勋的观点: 他表示自己对此“并不担心”。其理由是他不仅在预测未来,更在通过持续的沟通“塑造”供应链的未来。他会提前数年游说内存厂商(如 HBM 厂商)进行数十亿美元的投入,并与合作伙伴建立基于“信任”而非仅仅是合同的关系。他认为只要通过“极端协同设计”不断提升每瓦特的 Token 产出,算力成本的下降速度将远超电力等物理成本的限制。6.护城河、太空算力与对马斯克评价最深护城河:CUDA 生态 + 43000 名员工共建、百万开发者信任,横向覆盖云厂商 / 边缘设备;太空算力:GPU 已用于卫星图像处理,但太空无对流传导仅能辐射散热,现阶段优先挖掘地球闲置电力;高度评价马斯克:认可其一性原理、极简思维与一线执行力,盛赞 xAI 超算快速落地能力。7. 智能是一种“商品”,而“人性”才是核心黄仁勋的观点: 他认为智能终将成为一种廉价的“商品”(Commodity)。他甚至自谦地表示,自己团队中的60 多人每个人在专业领域都比他聪明、更像“超人”。他认为社会应该提升对“人性”(Humanity)、性格、同情心和慷慨等特质的评价,这些才是比单纯的智能更高级的力量。以下是对话内容,Enjoy: 01AI 革命的引擎与“极度协同设计” Lex Fridman:黄仁勋正带领英伟达迈向一个新纪元:从单纯的芯片设计转向宏大的机架级系统设计(Rack-scale Design)。曾经你们只需打造最强 GPU,但现在战线已延伸至 CPU、网络、存储、电源、冷却乃至整个数据中心的极度协同设计(Extreme Co-design)。面对如此繁杂的变量,打造这套深度耦合系统的核心挑战是什么? 黄仁勋:挑战在于,现代AI 难题早已无法靠单台计算机解决。我们的目标是实现“非线性增长”——即增加 1 万台电脑,算力却要提升 100 万倍。 这意味着必须重构算法,进行深度分片(Sharding)。而分布式计算最怕Amdahl's Law:系统的加速比受限于那部分无法并行的环节。如果网络、电力或通讯稍有瓶颈,即便 GPU 快上一百万倍,整体效率也只能提升一两倍。这是一个极其复杂的计算机科学命题,我们必须动用一切技术手段去对抗摩尔定律的放缓。 Lex Fridman: 这涉及海量的权衡。你麾下汇聚了 HBM 内存、光通信、液冷等各领域的顶级专家,你是如何让这些背景迥异的专家在同一个机架尺度上达成协作的? 黄仁勋:这正是我维持庞大直属下属规模(60 余人)的原因。 Lex Fridman: 这么多专家和通用人才如何高效协作? 黄仁勋:关键在于“组织架构应反映其产出”。我看过很多公司的架构图,无论卖汉堡还是造车都大同小异,这毫无意义。英伟达的架构必须反映它所处的计算环境。 我们优化的不只是芯片,而是整个软件栈。我不搞低效的“一对一”面谈,而是把所有人聚在一起直接攻克难题。在英伟达,协同设计是实时发生的: 全员透明:当讨论冷却或配电方案时,网络和内存专家都在场。即时纠偏:每个人都可以随时插话,比如指出“这种配电方案对内存层级行不通”。极致专注:成员可以自由走神,但当他们必须贡献力量时,我必须确保他们的视角被点亮。 这种将公司视为一台“协同机器”的运作方式,正是我们能每年迭代复杂系统的奇迹所在。02关于决策:CUDA 与 GeForce 的豪赌 Lex Fridman: 你提到英伟达是一家适应环境的公司。从早期的游戏GPU,到后来的深度学习革命,再到现在的“AI 工厂”,这个转变是如何发生的?  黄仁勋: 从系统的视角看,我们起步时定位是一家加速器(Accelerator)公司。但加速器天然存在一个悖论:它对特定任务的优化越极致,应用领域就越狭窄。这种“极致专业化”会严重限制市场规模。没有规模,就没有足够的研发投入;没有研发投入,你就无法在计算领域产生深远的影响力。我们的愿景是走向加速计算(Accelerated Computing)。但这中间存在一种根本性的张力:如果你变成一家完全通用的计算公司,你会丧失核心竞争力;如果你守着专业加速器不放,你又会死于小众。我们必须找到一条极窄的路径:在不放弃专业优势的前提下,一步步扩建我们的计算版图。我们迈出的第一步,是发明了可编程像素着色器(Programmable Pixel Shader),这是迈向可编程世界的分水岭。紧接着,我们在着色器中引入了FP32(单精度浮点数)。这个符合IEEE 标准的重大跨越,引起了那些研究数据流处理器的科学家的注意。他们突然意识到:这个原本为游戏设计的、计算密集的 GPU,竟然可以运行符合行业标准的科学软件了。这直接促使我们在FP32 之上开发了 C 语言环境(即后来的 Cg),并最终演化成了 CUDA。随后的决策最为艰难:我们将CUDA 强行推向了 GeForce(游戏显卡系列)。这在当时是一个极其冒险的战略,因为它消耗了公司巨额利润,几乎超出了我们的承受极限。但我们必须这么做,因为我们的目标是成为一家真正的计算平台公司,而架构的兼容性必须覆盖我们生产的每一颗芯片。Lex Fridman: 但这种“远见”在当时的财报上,看起来一定像个灾难。 黄仁勋:没错。代价是惨重的。C