作者 | 辰辰
出品 | 网易科技
美国时间1月5日,CES 2026发布会日程拥挤得让人喘不过气。
AI芯片三巨头在同一天亮出了底牌:黄仁勋发布了Vera Rubin平台,苏姿丰随即抛出AI处理器MI455和MI440X。而英特尔则赌上18A工艺的Panther Lake,试图在AI PC这块自留地里筑起最后的高墙。
过去两年,AI算力价格飞涨,训练大模型动辄数十亿美元,云端推理的账单更是高得让人肉疼。今年,所有人的潜台词都变成了一句大实话:这玩意儿太贵了,怎么把价格打下来?
(图片由AI生成)
在这个转折点上,英伟达、AMD和英特尔开始围攻同一个目标:如何让AI推理变得更便宜、更普及、更懂隐私。
正如一位分析师所言,核心故事已转变为:AI计算会成为稀缺的集中化资源,还是廉价的、无处不在的分布式能力?
1. 英伟达向上:我还要做规则制定者
黄仁勋一如既往地穿皮夹克登台,气场拉满。他把下一代平台命名为Vera Rubin,直接宣称这是“继Grace Blackwell之后的又一次飞跃”,已进入满产阶段。六颗芯片协同工作,像一台AI超级计算机,目标直指降低构建和部署高级AI系统的成本。
这一逻辑很明确:当单芯片性能接近物理极限时,胜负手在于网络、安全和内存带宽。
更吸睛的还有Alpamayo,一套专为自动驾驶打造的开源模型家族,今年就会上梅赛德斯-奔驰的美国新车。英伟达把触角伸向了机器人、自动驾驶、物理AI,分析师直呼“这是通往5万亿甚至6万亿美元市值的增量市场”。
但黄仁勋真正的底气不在单颗GPU,而在“系统”。它把计算、网络、安全、内存带宽全部绑在一起,形成一个难以撼动的生态壁垒。翻译成大白话就是:你想跑大模型?不买我全套,效率就打折,成本就飙升。
但问题在于,黄仁勋想把AI算力继续变成“稀缺的中心化资源”,让所有人继续为它的平台买单。可企业们已经受够了天价账单,他们渴望更灵活、更便宜的选择。这就给AMD和英特尔留下了窗口。
2. AMD走宽:我来当“实惠”的搅局者
苏姿丰的演讲风格一如既往地冷静务实。AMD一口气推出MI455、MI440X,还有Ryzen AI 400系列和嵌入式处理器。
MI455对标高端AI实验室,MI440X则主打“放进你现有机房就能用”,无需大动干戈改造数据中心。AMD打的算盘在于:不是所有企业都想建“AI工厂”,大多数只想低成本上车。
在AI PC领域,AMD更是火力全开。Ryzen AI新系列强调平衡性能与功耗,苏姿丰甚至放话:未来五年,AI活跃用户将从10亿暴增到50亿。
AMD直接瞄准了最庞大的买家群体:那些渴望AI成果却不愿彻底重构数据中心的普通企业。AMD的策略是提供多样化的“形状选项”,通过满足差异化需求来拓宽市场。这不是小目标,这是对英伟达的正面宣战,AMD要用“更多选择、更灵活部署、更实惠价格”撬开市场缝隙。华尔街分析师也承认:MI455有OpenAI这样的锚定客户,三四季度有望强势爬坡。
但隐患同样明显:AMD的成功,目前仍部分依赖“整体算力需求爆炸”,而非彻底的总拥有成本(TCO)优势。一旦英伟达把整个技术栈推到新高度,AMD还能靠“性价比”撑多久?
3. 英特尔回首:我要借制造卷土重来
英特尔最近几年在数据中心领域被打得节节败退,但这次CES,它把宝押在了Panther Lake (Core Ultra Series 3) 上。这是首款基于自研18A工艺的AI PC平台,号称能驱动超过200款设备设计,总AI算力高达180 TOPS,能本地跑700亿参数模型。
英特尔的叙事很清晰:我有制造优势,我有最广的OEM覆盖,我能让AI PC快速大规模上市。翻译过来就是:别光看实验室峰值,看看谁能真正把货铺到货架上。
但AI PC市场不只有英特尔和AMD,还有高通携Snapdragon X2系列杀入高端Windows阵营。英特尔想用规模和生态反击,却要面对“18A工艺到底能不能按时良率爬坡”的灵魂拷问。部分核心仍需台积电代工,也让借制造卷土重来的效果打了折扣。
4. 三条赛道,几个赢家?
CES 2026把AI芯片战场清晰地分成了三条赛道:
· 数据中心训练:高资本、高门槛,拼极致性能和扩展性,英伟达目前仍是一家独大。
· 数据中心推理:高规模、拼成本和稳定性,这里AMD的MI440X和英伟达的Rubin将正面硬刚。
· AI PC和边缘计算:拼功耗、内存、散热、隐私和实际体验,目前呈AMD、Intel、高通三足鼎立之势,英伟达暂时缺席。
(图片由AI生成)
眼下英伟达想通吃,AMD想多点开花,英特尔则是想先守住PC再图反攻。表面风平浪静,底下刀光剑影。谁是最终赢家还很难说。
虽然大多数普通人还在关注“算力峰值”,但决定胜负的,从来不是纸面参数,而是四座实打实的大山:
(图片由AI生成)
· 功率:数据中心能拿多少电、能散多少热?再牛的芯片,即便“性能提升百倍”,逼客户改造机房就输了。
· 高带宽内存:现代AI很多时候是内存受限,HBM供不应求,谁拿不到货谁就卡壳。
· 网络:大规模训练和推理拼的是芯片间通信效率,英伟达在这方面整合最深,占尽优势。
· 供应链:先进封装、互联、内存栈都不是无限的,谁能锁定产能,谁就“看似更快”。台积电的3纳米、4纳米、5纳米节点仍是大多数新品的底层依靠,英特尔Fab 18加速扩产的消息,也侧面印证了供应链的紧张。
5. 分析师怎么看?华尔街还是更看好英伟达
华尔街的分析师们在参加完首日展会后,显然比现场观众更加亢奋。在他们眼里,这不仅仅是一次硬件更迭,而是一场“40年一遇”的科技支出范式大转移。
· “6万亿美元俱乐部”的入场券: 韦德布什著名分析师丹·艾夫斯(Dan Ives)直接给出了极其激进的预测:英伟达不仅将站稳5万亿美元市值,更有望向6万亿美元发起冲击。他认为,AI革命的下一阶段就在眼前,未来三年将有3万亿至4万亿美元的AI资本支出涌入市场。特别是英伟达推出的Alpamayo开源模型,将成为特斯拉等公司加速自动驾驶落地的“燃料”。
· “算力饥渴”下的Token经济学: 摩根大通的哈兰·苏尔(Harlan Sur)说自己在现场仍感受到强烈的“算力饥渴”。他指出,推理Token生成的爆发式增长是当前计算需求的核心驱动力。分析师们认为,英伟达的Vera Rubin和AMD的Helios MI455X平台在2026年下半年的量产,正是为了缓解客户“对算力的渴求”(clamoring for capacity)。
· “全栈霸权” vs “性价比突围”: 摩根士丹利则保持了一份冷峻。虽然Rubin平台的生产进度给市场吃下了定心丸,但他们提醒投资者:AMD的成功目前在很大程度上源于算力市场的总体供需失衡。随着英伟达继续在全栈技术上“卷”出新高度,AMD必须证明自己在总拥有成本(TCO)上拥有真正的替代优势,才能维持长期的胜算。
· 本地AI的“反攻序曲”: 对于英特尔,摩根大通认为Panther Lake带来的180 TOPS算力具有里程碑意义。在云端成本高企、隐私安全敏感的背景下,“本地化计算”的逻辑正变得前所未有的强大。英特尔正在利用其庞大的生态系统,试图让AI处理像当年的Wi-Fi一样,成为每一台终端的标配。
6. 总结:真正的竞赛,是让AI变得“平平无奇”
行业里有句老话:当一项技术变得“无聊”时,它才真正开始改变世界。
(图片由AI生成)
CES 2026即使再喧嚣,也掩盖不了一个事实:未来一年,竞争的焦点不再是“谁的模型参数更大”,而是谁的推理更便宜、谁的本地运行更稳。
正如现场一位观察家所说,多数媒体还在盯着芯片发布的参数狂欢,但决定胜负的其实是运营层面的“及格线”:你能不能交付稳定的每瓦性能?能不能在客户缩紧的预算里,让模型长期跑下去?
“每Token成本”不是一句营销口号,而是产品生死的红线。道理很简单:如果AI助手的运行成本太高,它就只能是付费用户的特权,或者被悄悄限流;只有当它便宜到忽略不计,才会成为所有设备的默认配置。
2026年的赢家,将是那些能让AI部署变得稀松平常、让性能表现稳定可预测的公司。
这场始于数据中心的竞赛,终极目标只有一个:把AI从高高在上的尖端科技,变成像Wi-Fi一样嵌入生活、可靠且谁都用得起的“基础设施”。
当用户尝试AI的成本因为设备自带能力而趋近于零时,真正的普及浪潮,才刚刚开始。