1. 芯片设备三巨头最新观点
在此前美国的一场讨论会上,面对高盛分析师Jim Schneider关于2025年晶圆厂设备市场前景的提问,Applied Materials CEO Gary Dickerson给出“低单位数成长”的保守预测,KLA Corporation CFO Bren Higgins却预期“中单位数增长”,Lam Research CFO Doug Bettinger则完全回避数字预测。这种分歧并非市场判断能力的差异,而是三家巨头对半导体技术发展方向有着根本性的不同看法。
半导体设备产业向来以技术门槛极高著称,Applied Materials的材料工程、KLA的检测系统、Lam Research的蚀刻工艺,每项技术都需要十年以上的深度积累。然而,AI制程需求的爆发与地缘政治限制正在压缩产业的技术更新周期,迫使设备商在不确定性中做出战略押注。从2022年管制启动到当前市场格局重塑,整个产业正在经历从技术分歧到竞争逻辑重构的深层变革。三大设备巨头将透过技术路线差异、产业生态断裂、制造方式革命,以及政治风险内化四个维度,展现这场产业转折点的真实面貌。
Gary Dickerson的谨慎表态背后,隐藏着Applied Materials对未来技术路线的深度思考。这位执行长在会议上强调iCAPS市场的“消化期”,实际上反映了该公司对摩尔定律平面缩放到达极限的判断。 Applied Materials正在押注先进封装技术,认为AI芯片的复杂性将迫使产业从2D转向3D整合。该公司位于奥巴尼的EPIC Center已投入15亿美元,专门开发CoWoS(Chip-on-Wafer-on-Substrate)技术,这是一场对异质整合未来的豪赌。 Dickerson相信,当CPU、GPU、记忆体必须整合在同一封装内时,传统的晶圆制造将让位给材料工程和封装技术。
Bren Higgins的乐观预测则建立在制程复杂化不可逆转的技术判断上。 KLA Corporation这位财务长在会议中详细描述了一个技术现实:台积电3纳米制程的检测步骤比7纳米制程增加60%,每当制程节点向前推进,电晶体尺寸就更接近物理极限。 Higgins押注的是“制程越先进,检测越重要”的技术逻辑,该公司的电子束检测设备能够发现10纳米以下的缺陷,正好契合AI芯片的零容错要求。 KLA相信,即使地缘政治风险持续,先进制程的检测需求也不会减少,反而会因为良率压力而持续增长。
Doug Bettinger的策略回避显露出Lam Research对技术路线的复杂判断。该公司财务长在会议中反覆提及“etch-and-deposition intensity”概念,暗示公司同时押注两个技术方向:3D NAND的垂直扩展和先进逻辑的3D架构。 3D NAND从96层向200层演进需要深宽比超过100:1的垂直蚀刻技术,而AI芯片的3D电晶体结构同样需要原子级精度的工艺控制。然而,这两个技术方向都面临物理极限的挑战,Lam Research选择保留战略弹性,等待市场需求进一步明朗化。
Applied Materials中国营收从32%暴跌至18%,每季损失10亿美元的数字震撼市场,但真正的危机远超财务报表。这家设备巨头失去的不仅是收入来源,更是与全球最大半导体消费市场的技术共同发展机会。中国市场向来是新技术验证和工艺优化的重要场域,当Applied Materials被迫退出时,该公司实际上失去了一个关键的技术改进回馈机制。更严峻的是,中国本土设备商北方华创、中微公司正在成熟制程领域快速追赶,Applied Materials重返中国市场的技术门槛正在不断提高。
KLA Corporation面临的5亿美元损失看似温和,但技术生态的影响更加深远。该公司的检测设备不只是硬体产品,更是整个制程监控体系的技术核心。中国晶圆厂被迫寻找替代方案时,正在重新建构独立的检测标准和供应链体系。长期而言,这种技术标准的分化将导致全球半导体产业出现两套平行的品质管控系统,所有参与者的研发成本和技术复杂度都将大幅增加。 KLA面临的真正挑战不是短期收入损失,而是全球技术标准统一性的瓦解。
Lam Research中国营收占比从32%缩减至24%的过程中,客户支援业务群组(CSBG)受到最严重冲击。半导体设备的商业模式特性决定了设备销售只是开始,后续十年的技术支援、升级改造、备件供应才是真正的利润来源。一台蚀刻设备的使用周期通常超过十年,服务收入往往是设备价值的两倍以上。中国市场的服务中断不仅是当期现金流损失,更意味着未来十年收益的永久消失。这种产业生态链的断裂正在重塑全球半导体设备产业的商业逻辑。
Applied Materials赌的是封装技术将取代传统制程,KLA赌的是检测需求将无限放大,Lam Research赌的是保持选择权比下注更安全。三家公司看似预测市场,实际上是在选择生存方式:是押注单一技术路线获得先发优势,还是分散风险等待局势明朗?
时间会证明谁的判断更准确。 AI芯片的制造需求能否真正弥补中国市场的损失,先进封装技术能否如Applied Materials所愿成为新的增长引擎,检测设备的重要性是否如KLA预期般持续提升,市场终将给出答案。
但无论结果如何,有一点已经确定:半导体设备产业已经从纯粹的技术竞争,转变为技术与政治并重的复合竞争。在这个新的竞争环境中,技术领先不再是唯一的胜负标准,政治风险管控能力同样决定企业的生死存亡。游戏规则已经改变,回不去了。
2. openai与英伟达合作开发10千兆瓦系统
OpenAI 与英伟达确实已宣布达成战略合作伙伴关系,计划共同开发并部署至少 10 千兆瓦(10 gigawatts)的人工智能基础设施系统,用于训练和运行 OpenAI 的下一代模型,推动通往“超级智能”的目标。
合作要点如下:
部署规模:双方将建设并部署至少 10GW 的 NVIDIA 系统,代表数百万颗 GPU 的算力,是目前全球最大规模的 AI 数据中心建设计划之一。
投资金额:英伟达计划随着每千兆瓦系统的部署,逐步向 OpenAI 投资高达 1000 亿美元,用于支持数据中心和电力基础设施建设。
时间表:首个 1GW 的系统预计将在 2026 年下半年上线,采用英伟达下一代 Vera Rubin 平台。
合作性质:OpenAI 将英伟达列为其“AI 工厂增长计划”的首选战略计算与网络合作伙伴,双方将协同优化硬件与软件发展路线图。
此次合作标志着 AI 基础设施建设进入“吉瓦级”时代,远超传统数据中心的规模。
3. 传中芯国际在测试首款国产28纳米DUV光刻机
据多家行业媒体援引知情人士近日消息,中芯国际(SMIC)已开始对首款国产深紫外(DUV)光刻机进行评估和测试。
据悉,中芯国际正在测试的深紫外线(DUV)光刻机由上海初创公司宇量昇生产,采用浸没式技术,类似于ASML所采用的技术。这台国产的28纳米(nm)DUV光刻机,可利用“多重曝光技术”生产7纳米芯片,即在没有EUV光刻机的情况下,通过多次光刻实现更精细线路图案的折中方案。
目前尚不清楚该光刻机是否及何时能够用于高端芯片的量产。但毫无疑问,成功研发并量产国产DUV光刻机,对于保障中国庞大的成熟制程芯片供应链安全、提升产业链韧性具有至关重要的战略意义。
4. CPO概念爆火2025年光通信革命哪些企业已入局?
共封装光学(Co-packaged Optics, CPO)作为光通信领域的颠覆性技术,在2025年迎来了爆发式增长。
2025年3月,英伟达在GTC大会上正式发布了Quantum-X Photonics InfiniBand和Spectrum-x Photonics Ethernet两款CPO交换机,前者预计于2025年下半年上市,后者则将在2026年推出。与传统插拔式光模块相比,英伟达的CPO创新技术可将现有能效提高3.5倍,网络可靠性提高10倍,部署时间缩短1.3倍。
尽管CPO不是非常新的技术,但其“突然爆火”并非偶然,而是技术演进、市场需求和商业压力三者共同作用下的必然结果。最直接的原因是,它完美地解决了当前数据中心和AI计算领域最迫切的痛点——显著缩短了电信号传输距离,减少了信号完整性问题,同时显著降低了功耗和延迟。
当然,除了英伟达之外,全球还有数十家核心科技企业深度布局CPO领域,包括光通信巨头、芯片制造商和云计算公司。市场应用方面,预计CPO技术将在2025年开始商用,2026-2027年规模上量。第一代CPO产品将从800G和1.6T端口开始商用 ,逐步向更高速率发展。本文将从技术优势、市场驱动力、核心企业布局、市场前景与挑战等层面,全方位解析CPO技术这一2025开年以来的资本市场热点。
CPO技术主要应用于数据中心的交换机接口,其核心优势体现在三个维度:功耗、带宽密度和延迟。根据多项研究数据,CPO在关键性能指标上显著优于传统可插拔光模块:
功耗方面:Broadcom数据显示,可插拔光模块功耗范围为15-20 pJ/bit,而CPO系统可降低50%以上,达到5-10 pJ/bit。在800G传输速率下,CPO功耗为5.5W,而传统可插拔技术为14W。
带宽密度:CPO提升5-10倍带宽密度,支持高速光通信和高带宽需求。
尺寸与集成度:CPO实现更小尺寸、更紧凑设计和高集成度。
延迟方面:通过消除长距离电气连接,CPO可提供亚微秒级的低延迟。
以上关键性能优势,对于高性能计算和AI训练集群至关重要。不过,CPO要求极高的对准精度,通常需要<50nm横向对准公差以及光纤阵列的3D对准。
整体来看,CPO技术爆火主要有以下几个原因:
一是最根本的驱动力:AI大模型的算力竞赛。这也是CPO热度飙升的最直接、最强大的催化剂。从2022年以来,ChatGPT等生成式AI的爆发,催生了巨大的算力需求,其背后是无数英伟达GPU组成的超大规模计算集群。这些GPU之间需要高速、低延迟、高带宽地交换数据(比如模型参数、梯度信息)。传统的网络连接速度无法满足需求,导致强大的GPU算力在“等待”数据,效率低下。这也意味着GPU间通信成为瓶颈。
而CPO技术能够将光引擎直接封装在GPU旁边,实现超短距离的高速互连,提供前所未有的带宽(如1.6Tb/s甚至更高)和极低的功耗,彻底打破了GPU间的通信瓶颈,让算力集群的性能得以充分发挥。
二是无法忍受的“功耗墙”。除了高速互联之外,功耗是数据中心运营商的噩梦,而传统可插拔光模块的功耗已经逼近极限。随着数据传输速率从800G向1.6T甚至3.2T演进,使用传统的可插拔光学(Pluggable Optics)方案,光模块的功耗、发热和密度问题变得极其突出。一个1.6T的可插拔光模块功耗可能超过20W,一个高密度交换机可能就需要数十个这样的模块,其总功耗和散热需求是天文数字。
CPO将光引擎和电芯片(ASIC)紧密集成,通过芯片级的互连替代了传统PCB板上的高速铜线,大幅降低了信号传输的功耗和损耗。数据显示,CPO技术相比可插拔方案,能效可提升50%以上。这对于降低数据中心PUE(能源使用效率)、节省电费至关重要。
三是带宽密度需求的爆炸式增长。数据流量每年都在指数级增长,要求交换机的端口速率和密度越来越高。然而,交换机的前面板面积是固定的,但需要塞进更多、更高速的端口。可插拔光模块的尺寸和散热限制了端口密度的进一步提升。CPO则将光连接移至交换机内部,与交换芯片共同封装,解放了前面板的空间,从而极大地提高了交换机的带宽密度。这使得单台交换机能够处理的数据流量呈数量级增长。
四是技术成熟度的拐点。任何技术从概念到爆火都需要经过漫长的研发和积累,而CPO正处在产业化的临界点。CPO并非全新概念,业界已对其研究和探索了多年,在材料、硅光技术、封装工艺、热管理等方面都有了长足的进步,其在2023-2025年间实现了从技术概念到产业热点的跨越式发展。
5. TechInsights 2025报告DRAM 与 NAND 趋势与展望
DRAM
DRAM阵营里,Samsung、SK hynix、Micron三巨头正把1z nm推向1β→1γ→1dnm,并在2027年前后转入4F²单元结构,通过缩小特征尺寸、多层金属互连和高介电常数电容薄膜把单片容量继续往上顶。

3D NAND Layer
另一边,3D NAND的层数已把218L/236L抛在身后,Samsung 286L、KIOXIA 286L、Micron 276L、SK hynix 321L、YMTC 267L纷纷进入量产。


Hybrid bonding
为了在继续加层的同时不让晶圆翘曲、缝隙填充和栅极应力失控,各家都把“阵列-逻辑分离+Hybrid Bonding”当成续命良药——先在一枚晶圆上做完三百多层垂直通道与栅极堆叠,再把它倒扣到另一枚已布好外围电路的CMOS晶圆上,用亚微米级铜-铜直接键合省去凸块、压缩厚度、提升带宽,也让国产YMTC Xtacking和KIOXIA BiCS-CBA在制裁阴影下仍能继续迭代。
简言之,存储芯片的物理极限正被 “更细的线条、更薄的Die、更高堆叠+晶圆级混合键合” 这套组合一点点推开,DRAM在纳米尺度里榨电容,NAND在微米垂直里深挖,Hybrid Bonding是两者共同且最关键的跳板。
6. 一文读懂大模型常见的10个核心概念
1)、大模型型号
每个大模型都有其独特的设计和功能,有些大模型可能在语言理解方面表现出色,有些则可能在生成图像或解决特定领域问题上更有优势,就像不同品牌的汽车。
同一个大模型也会有不同的版本型号,例如DeepSeek R1、DeepSeek V3等,不同的版本号代表着全面的进化,例如更大的参数、更快的速度、更长的上下文、或者多模态之类的新功能。
很多模型还针对不同任务做了微调,这些在名字上同样有区分,比如DeepSeek Coder V2、DeepSeek Math等。
通常情况对话型就加chat,写代码就加coder,算数学就加math,做视觉就加vision等等。
2)、模型参数
模型参数的数量通常非常庞大,比如7B、14B、32B等(7B=7Billion=7000000000个参数),一个拥有数十亿甚至数万亿参数的大模型,就像一个拥有超级多“脑细胞”的超级大脑。这些参数决定了模型如何理解输入的信息,并生成相应的输出。
模型参数越大,通常能够学习到更复杂的模式和规律。
参数越大,价格越贵,所以需要根据处理任务的复杂度,合理选择不同“尺寸”的模型。
7B 模型
适用场景:适用于一些对实时性要求较高,且任务相对简单的场景。
14B 模型
适用场景:可以处理稍微复杂一点的自然语言处理任务。
32B 模型
适用场景:生成质量较高的文本,比如吸引人的广告文案、社交媒体推文等内容,提供一些不错的创意和内容生成。在知识问答系统中,能够回答一些涉及一定领域知识的问题,如 “人工智能的发展历程是怎样的”。
70B 模型
适用场景:具备更强的语言理解和生成能力,适用于复杂的对话系统,能够进行多轮对话,理解对话中的上下文信息,并给出合理的回应;在文本生成方面,能够生成更连贯、更有逻辑的长篇内容,如小说、技术文档等。
671B 模型
适用场景:通常具有非常强大的知识储备和语言处理能力,能够处理极其复杂的任务。
3)、上下文长度
你可以把上下文长度想象成一个“记忆窗口”。
当大模型处理文本时,它会考虑一定长度的前文内容来理解当前的文本信息,这个长度就是上下文长度。一般简单且短的问题用低上下文,而严谨且文本量大的用高上下文。
上下文长度通常有:
4)、Token
Token可以理解为文本的“积木块”。
当大模型处理文本时,它会把文本分成一个个小的单元,这些小单元就是Token。比如句子“我喜欢吃苹果”,可能会被分成“我”“喜欢”“吃”“苹果”这几个Token。
每个Token都有其对应的编号或向量表示,就像每个积木块都有自己的独特标识一样,模型就是通过操作这些“积木块”来进行语言处理。
5)、蒸馏
蒸馏可以想象成从一个“知识渊博的老师”(大模型)那里提取精华,传授给一个“学生”(小模型)的过程。大模型通常包含了大量的知识和信息,但它可能比较复杂,运行起来比较慢。
蒸馏是通过一种特殊的训练方法,让小模型学习大模型的行为和知识,从而变得更加聪明。就像学生向老师学习一样,小模型通过蒸馏可以在保持一定性能的同时,变得更加简洁和高效,能够更快地处理任务。
6)、量化
模型参数通常是非常精确的数字,占用大量的存储空间和计算资源。量化就是把这些精确的数字用更简单、更紧凑的方式表示,比如把一个32位的浮点数变成8位的整数。
7)、知识库与RAG
知识库就像是一个巨大的图书馆,里面存放着各种各样的知识和信息,比如历史事件、科学知识、文化传统等等。
而RAG(检索增强生成)则是一种从这个“图书馆”里快速找到有用信息,然后把这些信息提供给大模型,让大模型能够根据这些准确的知识来生成更准确、更有依据的回答。
8)、MOE(混合专家模型)
DeepSeek采用MoE(Mixture of Experts,混合专家)架构,训练多个专家模块,每个专家针对特定的数据分布或任务进行优化。
9)、Prompt
Prompt可以理解为给大模型的“提示语”或“指令”。当你想要让大模型做某件事情或回答某个问题时,你输入的那段文字就是Prompt。
Prompt的设计非常重要,因为它会直接影响大模型的输出结果。
10)、Agent
Agent可以根据大模型的能力和一些预设的规则,自主地完成一些任务,比如与用户进行对话、处理信息、执行特定的操作等。
Agent就像是一个有自己思维和行动能力的小机器人,它能够理解用户的需求,然后利用大模型的知识和自身的功能来帮助用户解决问题,为用户提供服务。
7. 人工智能的基础设施投资越来越大,投人工智能95%尚没有回报,人工智能尚未开启替代人工,人工智能的智能尚需时间
你提到的这些现象,确实是当前人工智能发展阶段的真实写照。我们可以从几个角度来拆解这个问题:
一、“基础设施投资越来越大”
这是事实,也是必然。
算力、数据、模型规模是AI发展的三大支柱,而这三者都在指数级增长。
比如,训练一个GPT-4级别的模型,成本可能高达数千万到上亿美元。
芯片(如NVIDIA H100)、电力、冷却系统、数据中心建设,都是重资产投入。
国家层面也在加码:中美欧都在把AI基础设施当作“新基建”的核心,类似当年的高铁、5G。
结论:这不是泡沫,而是新一轮技术革命的“地基”,就像电力、铁路、互联网早期一样,投入巨大,回报周期长。
二、“95%的AI投资尚未回报”
这句话并不夸张,甚至可能更悲观。
To B市场:大多数AI公司还在“POC(试点)地狱”,客户愿意试点,不愿意付费。
To C市场:除了ChatGPT、Midjourney等少数爆款,大多数AI产品DAU低、留存差、变现弱。
估值与收入脱节:很多AI公司估值10亿美元,年收入不到1000万美元。
风险:这一轮AI热潮中,95%的公司可能活不到盈利那天,但剩下的5%可能会成为下一个Google、Apple。
三、“尚未开启替代人工”
这个说法部分正确,但要看场景。
已经替代:客服、翻译、基础文案、代码补全、图像标注、金融分析等岗位,已经被AI大幅渗透。
尚未替代:需要物理操作、复杂判断、情感交互、责任承担的工作,如护士、律师、厨师、 plumber,AI还插不上手。
瓶颈不在“智能”,而在“可靠性”:
AI可以写代码,但不能保证不出错;
AI可以看病,但不能签字承担责任;
AI可以开车,但不能坐牢。
关键问题:社会制度、法律、伦理、责任机制,还没跟上AI的能力。
四、“智能尚需时间”
这句话是最核心也最被低估的。
当前AI是“统计拟合器”,不是“理解器”。
它能模仿语言,但不理解世界;
它能生成图像,但不知道物理规律;
它能通过考试,但不知道“为什么”。
真正的“替代人工”,需要:
多模态理解(视觉+语言+行动)
长期记忆与推理
自主目标设定与执行
社会协作与责任承担
时间估算:
5年内:AI将成为“超级助手”,人均配一个“AI实习生”;
10年内:AI将重构大多数知识工作,但仍有边界;
20年内:可能出现**“通用人工智能(AGI)”**,社会制度将面临重塑。
总结一句话:
我们正在为一场尚未到来的智能革命“修路”,而大多数人还在用“马车”的标准衡量它。
8. 阿里云与英伟达官宣合作Physical A,押宝具身智能辅助驾驶
在今日举办的2025杭州云栖大会上,阿里云和英伟达在Physical AI(物理AI)领域达成合作。阿里云人工智能平台PAI将集成英伟达Physical AI软件栈,将为企业用户提供数据预处理、仿真数据生成、模型训练评估、机器人强化学习、仿真测试等全链路平台服务,进一步缩短具身智能、辅助驾驶等应用的开发周期。
资料显示,Physical AI(物理人工智能)是人工智能技术向物理世界延伸的分支领域,旨在通过融合多模态感知、空间关系理解和物理规则认知,实现与现实世界的交互。
据介绍,阿里云人工智能平台PAI将集成NVIDIA Isaac Sim、NVIDIA Isaac Lab、NVIDIA Cosmos和Physical AI数据集在内的全套Physical AI软件栈,结合阿里云大数据AI平台能力,形成覆盖数据预处理、仿真数据生成、模型训练评估、机器人强化学习、仿真测试在内的全链路平台支撑。
阿里巴巴集团董事兼首席执行官,阿里云智能集团董事长兼首席执行官吴泳铭表示,未来可能会有超过全球人口数量的Agent(智能体)和机器人,和人类一起工作,对真实世界产生巨大影响。
他认为,大模型是下一代操作系统,而AI云是下一代计算机。也许未来全世界只会有5、6个超级云计算平台。目前阿里正积极推进3800亿的AI基础设施建设,并计划追加更大的投入。为了迎接ASI(超级人工智能)时代的到来,从GenAI元年的2022年到2032年,阿里云全球数据中心的能耗规模将提升10倍。
9. 阿里吴泳铭三年3800亿投建AI基础设施,剑指ASI时代
9月24日,在杭州云栖大会上,阿里巴巴集团CEO、阿里云智能集团董事长兼CEO吴泳铭发表重磅演讲,向外界释放出阿里在人工智能领域前所未有的雄心。他宣布,阿里巴巴正在积极推进三年3800亿的AI基础设施建设计划,并将会持续追加更大的投入。
吴泳铭认为,人类正站在一场由AI驱动的“智能化革命”门槛上。过去,工业革命放大了人类的体能,信息革命提升了信息处理能力,而AI革命将前所未有地解放人类的智力潜能。在短短三年内,AI的智能水平已从“高中生”跃升至“博士生”,甚至能在国际数学奥林匹克竞赛中摘金夺银。
然而,吴泳铭强调,AGI并非终点,而是通往ASI的跳板。AGI的目标是将人类从80%的重复性工作中解放出来,让我们专注于创造与探索;而ASI则将是全面超越人类智能的系统,能够以指数级速度推动科技进步,解决医学、能源、气候、星际旅行等人类长期未能攻克的难题。
他在演讲中指出,当前正处于人工智能发展的关键转折点。从2022年生成式AI(GenAI)爆发元年起,短短三年间,AI技术已深刻改变各行各业。而未来十年,AI将从“生成式智能”迈向“人工超级智能”(Artificial Superintelligence, ASI)时代。
吴泳铭表示,在AGI到ASI的巨大变革中,大模型将是下一代的操作系统。“并不是说大模型替代了windows或者说linux这样的操作系统。而是大模型以及相关的系统,在整个物理世界和数字世界的交互当中,将承载现有操作系统的地位。未来几乎所有链接真实世界的工具接口,都将与大模型进行连接,所有用户需求和行业应用将会通过大模型相关的工具执行任务”。
吴泳铭首次系统性地提出了通往ASI的三阶段演进路线:
第一阶段是“智能涌现”,核心是“学习人”。大模型通过学习互联网上近乎全量的人类知识,涌现出泛化智能,具备理解意图、解答问题和多步推理的能力。这是过去几年AI发展的主线。
第二阶段是“自主行动”,核心是“辅助人”。AI不再局限于对话,而是具备工具使用(Tool Use)和编程(Coding)能力,能在数字与物理世界中自主执行任务。用户只需用自然语言下达指令,AI即可自动调用软件、编写代码、操作设备,完成复杂工作。吴泳铭指出,当前行业正处于这一阶段,未来每个人都将拥有数十甚至上百个24小时工作的AI代理(Agent)。
第三阶段是“自我迭代”,核心是“超越人”。这需要两大关键突破:一是AI直接连接真实世界的全量原始数据,摆脱对人类归纳知识的依赖;二是实现“自主学习”(Self-learning),通过与物理世界的持续交互和反馈,自主优化模型架构、数据流程,实现自我进化。当AI完成无数次“交互-反馈-优化”的循环后,一个早期的ASI将由此成型。
为支撑这一宏大愿景,吴泳铭明确了阿里云的两大战略路径。其一,通义千问坚定走开源开放路线,致力于打造“AI时代的Android”,赋能全球开发者生态。其二,构建“下一代计算机”——超级AI云,提供全球智能算力网络。为此,阿里正在推进三年3800亿的AI基础设施建设计划,并将持续追加更大投入。远期规划显示,到2032年,阿里云全球数据中心的能耗规模将比2022年提升10倍。
值得一提的是,阿里Qwen3-Max,是阿里巴巴迄今为止规模最大、能力最强的模型。目前,Qwen3-Max-Instruct的预览版在LMArena文本排行榜上位列第三,超越了GPT-5-Chat。正式版本在代码能力和智能体(agent)能力方面进一步提升,在涵盖知识、推理、编程、指令遵循、人类偏好对齐、智能体任务和多语言理解的全面基准测试中均达到业界领先水平。
10. AI时代下全球及中国半导体产业现状与展望
全球半导体市场的发展趋势 冯莉指出,据最新WSTS公布数据显示,2024年全球半导体销售额同比增长19.7%至6,305亿美元。预估2025年全球半导体市场销售额将继续保持强势增长,突破7,000亿美元,同比增长11.2%。从2000年2,000亿美元的市场规模的体量开始,大约花了十三年的时间达到了3,000亿美元,之后每增长1,000亿美元,大概花费4年左右的时间。到2022年左右,增长节奏变成每两年增长1,000亿美元,到2025年已经达到7千亿美元。预测2030年的增长将达到1万亿美元,主要推手是人工智能。
关于人工智能,我们可以看到其支持AI大模型的底层基础建设。服务器、数据中心和存储将远超其他细分市场。2024年的这一部分占到1,490亿美元。2030年时,比重将翻倍,达到3,400亿美元,占1万亿美元的34%。
从2020年到2030年,整个AI基础建设对半导体的拉动作用非常大,包括ASIC、FPGA、GPU和CPU。2025年即当前的整个AI基础建设大约是1,390亿美元的体量,其中GPU占1,000亿美元,2030年GPU的比重翻了三倍,达到3,260亿美元,成长迅速。 在整个半导体产业发展过程中,各地方政府发挥了巨大的推动作用。美国在2025年宣布了5,000亿美元的人工智能基础设施,这也被称为星际之门计划。欧洲有芯片法案,有超过500亿欧元的投资。
中国大陆有大基金一期、二期、三期的投资在进行。韩国的K半导体策略,10年计划投资4,500亿美元。日本设立了2,200亿日元的后5G基金发展半导体,同时也通过一系列招商引资手段吸引台积电。各国都将半导体视为战略资源推动。
中国在一系列政策支持下,从2000年到2020年的中国半导体产业发展也非常迅速。从全球晶圆厂产能来看,2000年时美国和日本占据了全球50%以上的产能,中国大陆产能当时只占约2%。2010年,半导体产业向韩国和中国台湾转移,两者一共占据全球35%的产能。此时中国大陆占据全球产能的9%。2020年,随着新产线的建设及原有产线的扩产,中国大陆已占据全球17%的产能。
根据SEMI最新预测,2026年300mm Fab厂中国大陆部分将占到26%。 根据SEMI 2024-2028年设备投资的预测数据,到2028年,中国大陆、中国台湾以及韩国仍然是三个相对稳定投资的地区。2024年,美国在设备上的投资为240亿美元,2028年将增长到330亿美元,赶上了中国大陆、韩国以及中国台湾的投资节奏,东南亚也有所增长,中东和欧洲地区的投资在这4年内翻一番,2028年达到150亿美元。
中国大陆地区的晶圆厂投资在未来4年将恢复到正常水平,2028年预估的晶圆厂投资金额仍高达280亿美元。 根据SEMI全球Fab设备投资趋势的数据来看,2020年时,投资金额基本上维持在400亿到600亿美元。2021年发生了巨大变化,投资规模达到1千亿美元。从2021年到2025年,都基本维持在这样的水平。从2026年到2028年,受到AI及全球芯片法案的影响,投资规模将会突破1,200亿美元。 AI的投资对整个芯片市场设备投资产生了一定影响。2025年AI和HPC的投资已经占到设备总投资的40%,这些投资集中在7纳米及以下的逻辑芯片,包括相关存储设备。2028年将增长到48%的比重。AI在未来几年里,对整个半导体格局将产生巨大影响。
从应用划分来看,2025年设备投资金额预计将达到1,080亿美元,2026年将进一步加速增长14%,达到1,226亿美元。在前沿投资的推动下,预计2025年Foundry和Logic的支出将增长3%,预计2026年将进一步增长15%。2025年,DRAM支出将增长10%,达到210亿美元。特别值得一提的是,过去十年中国大陆在设备投资方面持续增长,到2024年达到全球设备投资的40%以上。
中国半导体产业的发展及展望 中国在全球应用市场中占据了非常重要的位置。自2001年以来,亚太地区成为全球最大的半导体市场。其中,亚太地区最大的半导体市场是中国,占亚太市场的46%和全球市场的24%。
中国IC市场规模及中国IC制造规模方面,自主率从2012年的14%增长到2022年的18%,2027年有望超过26%。 过去的十多年,中国半导体的发展非常迅速,2023年,中国集成电路产业销售额达到了12,276.9亿元,同比增长2.3%。2024年,中国集成电路产业销售额达13,000亿元,同比增长超5%。 制造业方面,根据SEMI数据,2024年-2028年,中国晶圆厂产能的复合年均增长率为8.1%,关于晶圆厂产能的复合年均增长率为5.3%。细分来看,成熟节点(55nm及以上)产能的复合年均增长率为3.7%。主流芯片节点(22nm-40nm)产能的复合年均增长率为26.5%。先进节点(14nm及以下)产能的复合年均增长率为5.7%。中国将在主流节点占主导地位,2024年,中国主流节点产能占全球25%,今年将达到32%,预计到2028年,在不断投资的带动下,占比将达到42%。
根据SEMI预测,中国半导体设备投资2025年为380亿美元,2026年将为360亿美元,依旧继续引领全球半导体设备投资。从长期发展角度来看,国家的资金投入和支持非常重要。随着2024年5月24日国家集成电路产业投资基金三期股份有限公司的成立,大基金目前已投资三期,第三期注册资本3,440亿元,规模超过了第一期和第二期总和,存续期限延长至15年,国家对集成电路产业的持续投资增强,极大地提振了行业信心和创新活力。投资方向上,大基金三期会继续聚焦于半导体晶圆制造以及设备、零部件、材料等关键环节,同时可能将AI芯片等新兴产业作为重点投资方向。2019年科创板的问世也推动了资本市场赋能整个半导体产业的发展。
全球半导体资本支出规模非常巨大。根据市场分析机构预测,2025年半导体总资本支出为1,600亿美元,比2024年增长3%。2024年半导体总资本支出为1,550亿美元,2024年三星,台积电,Intel三家半导体资本支出占比全球半导体资本支出超过57%,全球前五家晶圆厂累计资本支出占比超70%。
半导体行业是一个不断投入大资金的过程,加大半导体研发投入是产业发展的长期策略。据SIA报告,2022年,整个美国半导体产业的研发支出总额达到了588亿美元,占销售额的比例为18.75%。欧洲的研发支出和销售额占15%,中国台湾为11%,韩国9.1%,日本为8.3%,中国大陆为7.6%。
我们在研发上需投入更多精力、时间、资金以实现更好的发展。 高峰论坛上,魏少军、王志华、唐建石、王源、李明等业界专家分别围绕计算芯片技术创新、智能时代集成电路发展、具身神经智能、高算力芯片、光电材料等主题展开探讨。白鹏、董博宇、朱煜、张建中、赵超、何宁、王丰等行业领军者就产业创新发展、GPU、DRAM、RISC-V等议题交流经验,为产业发展提供“芯”思路。
莫大康:浙江大学校友,求是缘半导体联盟顾问。亲历50年中国半导体产业发展历程的著名学者、行业评论家。
Copyright © 2021-2031,www.xy-semi.com.cn,All rights reserved版权所有 © 江苏芯缘半导体有限公司官网 未经许可 严禁复制 建议使用1366X768分辨率浏览本站
ICP:苏ICP备2022006250号