Back to Blog

AI 时代,为什么中国出不了英伟达、三星、海力士?

2026-05-11T14:00:00+08:00
英伟达 半导体 芯片 AI芯片 中国半导体 HBM EUV

AI 时代,为什么中国出不了英伟达、三星、海力士?

先看几个数字。

英伟达市值 5.23 万亿美元,全球第一。2025 财年营收 2159 亿美元,同比增长 65%。SK 海力士市值 9048 亿美元,2025 年营收 687 亿美元,同比增长 43%。三星市值 1.27 万亿美元,存储芯片占全球半壁江山。

中国最好的芯片制造公司中芯国际(SMIC),市值 78 亿美元——英伟达的 1/67

这不是一篇唱衰的文章。中国半导体这些年进步很大,华为用 DUV 多重曝光硬生生搞出了 7nm,DeepSeek 用效率换算力证明了"卡脖子"不等于"堵死路"。但承认差距是进步的前提。AI 时代对芯片的需求是史无前例的,而我们面对的不是某一个环节落后,是一条完整的链条——从设计到制造,从材料到设备,从软件生态到高端封装——全面落后。

这篇文章把四个核心瓶颈拆开来讲清楚。

本文提纲

  1. 瓶颈一:EUV 光刻机——被物理锁死的制程
  2. 瓶颈二:HBM 高带宽内存——AI 训练的命门
  3. 瓶颈三:先进封装——芯片做出来了也组装不了
  4. 瓶颈四:CUDA 生态——15 年护城河,不是光靠钱能填的
  5. 中国在做什么:不是没有希望
  6. 差距的本质:不是差一点,是差一整条链

瓶颈一:EUV 光刻机——被物理锁死的制程

芯片制造的核心设备是光刻机。全球能做最先进光刻机的只有一家:荷兰 ASML。而最先进的 EUV(极紫外)光刻机,ASML 是全世界唯一的供应商。市场价约 3 亿美元一台。

中国买不到。

2019 年起,荷兰在美国施压下禁止向中国出口 EUV 设备。2023 年起,连 DUV(深紫外)高端型号也受限。这意味着什么?

意味着中国芯片制造从物理层面被锁在了落后制程。中芯国际目前最先进的工艺是 7nm,用的是 DUV 多重曝光——本质上是用一台精度不够的机器,反复多次曝光,拼出更细的线条。能做到,但代价巨大:良率低(约 50%,TSMC 同级别在 90% 以上)、成本高、量产难。

更关键的是,这条路走到 5nm 就快到物理极限了。台积电已经在量产 3nm,2026 年量产 2nm。英伟达的 Blackwell GPU、苹果的 A 系列芯片,全是用 3nm/4nm 工艺制造的。没有 EUV,中国连追都追不了——不是差钱,是差设备。

中国自己的光刻机企业上海微电子(SMEE),目前能力大约在 90nm 级别。跟 ASML 的差距不是三年五年,是 10-15 年以上

瓶颈二:HBM 高带宽内存——AI 训练的命门

很多人不知道,AI 芯片的瓶颈不在计算,在内存带宽

大模型训练时,数据要在 GPU 和内存之间疯狂来回搬运。如果内存带宽不够,GPU 再快也白搭——就像跑车再快,路窄堵住了。HBM(High Bandwidth Memory,高带宽内存)就是那条宽路。

SK 海力士靠 HBM 一个产品线,市值从不到 1000 亿美元涨到 9000 多亿美元。全球 HBM 市场,SK 海力士占 50%+,三星和 Micron 分剩的。中国 HBM 产能:零。

不是"落后几代",是"还没有"。中国最好的 DRAM 厂商长鑫存储(CXMT),目前能做 DDR4 和部分 LPDDR5,离 HBM 还差 2-3 代。HBM 需要 TSV(硅通孔)堆叠技术和先进的 DRAM 制程,这两样中国都缺。

后果是什么?华为的昇腾 910C 算力不差,部分场景接近 A100 水平。但它只能用普通 GDDR6 或 LPDDR5 内存,带宽只有 HBM 的几分之一。训练大模型时,这个差距会被放大到不可接受的程度。

2024 年底,美国进一步禁止了所有 HBM 对华出口。连买都买不到了。

瓶颈三:先进封装——芯片做出来了也组装不了

这是最容易被忽略的瓶颈,但在 AI 芯片领域可能是最关键的。

英伟达的 Blackwell GPU 不是一块单片芯片,而是用台积电的 CoWoS(Chip-on-Wafer-on-Substrate) 先进封装技术,把多个芯粒(chiplet)高密度集成在一起。这种封装的互连带宽远超传统封装,是 AI 芯片性能的关键支撑。

台积电在疯狂扩产 CoWoS 产能——2024-2025 年翻倍——但还是供不应求。排队等 CoWoS 封装的客户名单长得离谱。

中国没有等效的先进封装能力。

这意味着什么?就算中国设计出了和英伟达一样好的 GPU 芯片,就算用某种方式造出来了晶圆,最后一步——把芯片封装成可用的产品——也做不好。就像有了最好的发动机和最好的车身,但焊接车间不达标,组装出来的车跑不快。

先进封装不是一个简单的"组装"步骤,它本身就是高科技——需要极精密的对准、超细间距的互连、高可靠性的热管理。台积电在这上面积累了十多年,不是花钱就能速成的。

瓶颈四:CUDA 生态——15 年护城河,不是光靠钱能填的

英伟达最深的护城河不是硬件,是软件生态 CUDA

2007 年,英伟达发布 CUDA 平台,让开发者能用 GPU 做通用计算。那时候没人觉得这事重要——GPU 不是用来打游戏的吗?黄仁勋坚持投入了 15 年。

今天的局面是:

  • 全球约有 400-500 万 CUDA 开发者
  • PyTorch、TensorFlow、JAX 所有主流 AI 框架,第一优先级支持 CUDA
  • 几乎所有 AI 模型的训练代码都针对 CUDA 优化
  • 大量学术研究、开源项目、企业生产环境深度绑定 CUDA

华为的替代方案叫 CANN(Compute Architecture for Neural Networks),活跃开发者大概 1-5 万人。把一个在 CUDA 上跑得好好的模型迁移到 CANN,往往需要重新调优,性能可能还要打个折扣。

生态不是"有就行了"的事。 生态是一个正反馈飞轮:开发者多 → 优化多 → 性能好 → 更多人用。CUDA 转了 15 年的飞轮,你要从零开始转,不是砸 100 亿就能解决的。需要时间、需要大量开发者参与、需要无数项目的踩坑和积累。

这可能是四个瓶颈里最难追赶的一个——因为前三个是工程问题,可以用钱和人堆;生态是人的问题,需要百万级开发者的共识。

中国在做什么:不是没有希望

说差距,也要说进展。中国半导体没有躺平。

华为昇腾 910C:目前中国最先进的 AI 训练芯片,部分场景接近 A100。虽然受制于制造工艺和内存带宽,但证明了中国在芯片设计上并不弱。

中芯国际 7nm/5nm:用 DUV 多重曝光做到了 7nm 量产(华为 Mate 60 系列的 Kirin 9000s),有报道称在向 5nm 推进。良率低、成本高,但能用。

长江存储 YMTC:232 层 3D NAND,在某些指标上曾经领先三星。被制裁后依然在进步,在国内市场收复了份额。

大基金三期:2024 年 5 月宣布 3440 亿人民币(约 475 亿美元),史上最大规模,重点投向 HBM、先进逻辑和设备自主化。

DeepSeek 的启示:2024 年底到 2025 年,DeepSeek 用相对少的 GPU 资源训练出了极具竞争力的模型,证明"效率"可以部分弥补"硬件不足"。这不是万能药,但它指明了一条现实路径。

RISC-V:中国正在大力押注开源指令集 RISC-V,试图绕开 Arm 和 x86 的生态壁垒。这个方向有潜力,但离 AI 芯片大规模商用还有距离。

差距的本质:不是差一点,是差一整条链

回到标题的问题:为什么中国出不了英伟达、三星、海力士?

答案不是某一个环节不行。是整条链都不够强。

英伟达的成功背后是:台积电的制造 + SK 海力士的 HBM + 台积电的 CoWoS 封装 + ASML 的光刻机 + 15 年的 CUDA 生态。这五个环节里,每一个都是全球顶尖,而且它们之间形成了深度绑定的合作关系。

中国要做的不是补一个短板,是重建一整条平行产业链。从光刻机到 HBM,从先进封装到软件生态,每一环都要从零开始追赶。

但这不是悲观的理由。中国半导体产业目前的策略很清晰:不求全面超越,先建自主可控的平行体系。 7nm + DUV 够用就先用着,HBM 暂时没有就用别的方案顶上,生态不成熟就从国内市场开始培养。

差距大是事实。但半导体是一个 60 年积累的行业,中国真正认真搞才不到 20 年。着急没用,持续投入、保持耐心、尊重工程规律,差距会缩小。只是别幻想弯道超车——这条路上没有弯道。


作者: itech001 来源: 公众号:AI人工智能时代 主页: https://www.theaiera.cn(每日分享最前沿的AI新闻和技术)

本文首发于 AI人工智能时代,转载请注明出处。

Enjoyed this article? Share it with others!