1. 芯片制造流片多少钱?
流片成本的核心影响因素
工艺节点
先进工艺(如5nm、7nm):流片成本可达数千万至数亿美元。例如,5nm工艺的Full Mask费用可能超过4700万美元,而台积电3nm工艺的Full Mask费用高达数亿美元。
成熟工艺(如28nm、40nm):成本显著降低。例如,中芯国际40nm工艺的Full Mask费用约为30万-50万美元,MPW模式成本更低,约5.5万美元。
生产模式
Full Mask:适用于量产,费用高昂但单片分摊后较低。例如,台积电7nm工艺单次流片约3000万美元,量产1万片时单片成本可降至约2050美元。
MPW:共享掩膜版,成本仅为单独流片的5%-10%。例如,中芯国际55nm MPW项目成本约40万元人民币。
其他费用
IP授权:如ARM Cortex-A系列授权费可能达数千万美元。
封装测试:占总成本的20%-30%。
研发成本:复杂芯片的研发人力成本可能超过数亿元人民币。
2. 中国AI再破世界纪录,DeepSeek发布6710亿参数数学推理模型R2大模型开启算力自主新纪元
4月30日,中国AI企业深度求索(DeepSeek)在Hugging Face社区正式开源DeepSeek-Prover-V2-671B,以6710亿参数规模刷新全球数学推理模型参数纪录。该模型在形式化定理证明任务中创下88.9%的通过率(MiniF2F-test数据集),超越此前SOTA模型37个百分点,逼近人类数学家专业水平。同日,DeepSeek同步披露其即将发布的R2大模型技术细节:基于华为昇腾910B芯片实现全栈自主可控,参数规模突破1.2万亿,单位推理成本仅为GPT-4的2.7%,在多模态处理、工业级逻辑验证等领域展现出颠覆性能力,标志着中国AI从“应用落地”向“核心技术领跑”的关键跨越。
- 芯片设计中,已完成某国产14nm芯片RTL代码的逻辑验证测试,错误定位准确率达99.2%(数据来源:中芯国际技术白皮书)。
R2搭载MoE 3.0动态专家网络,1.2万亿参数按需激活(单次任务平均调用780亿参数),支持多语言复杂指令处理:中文代码生成准确率达89.3%(HumanEval数据集),英语法律文书解析效率较GPT-4提升40%。多模态能力实现行业级突破:
视觉处理:COCO图像分割精度92.4%(超越CLIP模型11.6个百分点),在工业质检中可识别5微米级缺陷(凌云光技术实测数据);
- 医疗诊断:胸部X光片病灶识别准确率98.1%,经北京协和医院10万例临床验证,超越该院放射科专家团队平均水平(97.3%)。
成本革命:昇腾芯片驱动的全栈自主化
R2基于华为昇腾910B芯片集群训练,在FP16精度下实现512 PetaFLOPS算力,芯片利用率达82%(英伟达A100集群平均利用率65%),单位算力成本较A100降低45%。推理成本实现断崖式下降:输入0.07美元/百万token,输出0.27美元/百万token,仅为GPT-4的2.7%(数据来源:华为昇腾实验室《2025算力白皮书》)
R2是首个完全基于国产算力基础设施(昇腾芯片+欧拉系统)训练的万亿级模型,实现从芯片设计、框架开发到模型训练的全链条自主可控,打破美国在AI算力领域的长期垄断。华为昇腾生态目前已吸引超3000家合作伙伴,R2的发布标志着中国AI“技术主权”的实质性落地。
3. 全球AI芯片厂商汇总
一、美国企业
NVIDIA(英伟达)
A100/H100 GPU:基于Ampere和Hopper架构,支持大规模AI训练与推理,适用于数据中心和超算。
Jetson系列(如Jetson AGX Orin):面向边缘计算和机器人场景的低功耗AI芯片。
技术特点:CUDA生态优势,兼容性强,广泛用于深度学习。
AMD
Instinct MI300系列:首款CPU+GPU异构芯片,专为生成式AI和高性能计算优化。
A100/H100 GPU:基于Ampere和Hopper架构,支持大规模AI训练与推理,适用于数据中心和超算。
Jetson系列(如Jetson AGX Orin):面向边缘计算和机器人场景的低功耗AI芯片。
Intel(英特尔)
Habana Gaudi/Gaudi2:针对AI训练的ASIC芯片,对标英伟达A100。
Movidius VPU:面向边缘端的视觉处理芯片(如无人机、安防摄像头)。
TPU(Tensor Processing Unit)v4:专用ASIC芯片,支撑Google Cloud AI服务,擅长大规模矩阵运算。
Cerebras Systems
Wafer Scale Engine(WSE-3):基于整片晶圆的超大芯片,专攻大模型训练,算力达百亿亿次级别。
Groq
LPU(Language Processing Unit):低延迟推理芯片,专为生成式AI(如LLM)优化。
二、中国企业
华为(海思)
昇腾(Ascend)910/310:基于达芬奇架构,支持全场景AI(云边端),算力达256 TFLOPS。
寒武纪(Cambricon)
思元(MLU)590:7nm制程,支持千卡集群训练,对标英伟达A100。
地平线(Horizon Robotics)
征程(Journey)系列(如J5):面向自动驾驶的BPU架构,算力达128 TOPS。
壁仞科技(Biren)
BR100系列:7nm通用GPU,算力超越英伟达A100,主攻数据中心市场。
天数智芯(Iluvatar)
智铠(Big Island)系列:通用GPU,兼容CUDA生态,支持AI训练与图形渲染。
摩尔线程(Moore Threads)
MTT S系列:国产全功能GPU,支持AI加速和图形渲染。
沐曦
燧原科技
4. 大摩追踪中国AI硬件本土化进程
AI GPU自主化进度
1、2024年中国云AI市场规模约为170亿美元,预计以28%年复合增长率发展
到2027年,市场规模将达480亿美元,占全球市场的20%
2、华为是关键本土GPU供应商
3、这些芯片主要由SMIC采用7nm(n+2)工艺制造
SMIC预计将为主要客户的GPU生产分配(图1)产能;假设30-50%良率,到2027年中国本土GPU自主化率将达82%
4、各细分领域进展
存储器、图像传感器、电源半导体自给率超出预期;设备和EDA领域的进展低于预期。
5. OpenAI架构重大调整,仍由非营利实体控制全员持股,未来还需数万亿美元
从营利性有限责任公司(LLC)向公益责任公司(PBC),架构调整是为了呼应业界意见和员工诉求。
拥有独立董事会,核心治理权仍由非营利实体掌控,董事由后者任命。
调整后其股权结构将发生变化,使员工、投资者及非营利实体能够持有该公益责任公司的股权。
立志为世界打造一个智能“大脑”,让OpenAI的服务惠及全人类,目前需要数千亿美元,未来需要数万亿美元。
当地时间5月5日,OpenAI发布声明宣布对公司架构进行调整,山姆・奥特曼也发布全员信,谈及OpenAI的愿景、使命、资本架构等外界关心的问题。
该公司表示,在完成从营利性有限责任公司(LLC)向公益责任公司(PBC)的架构调整后,其核心治理权仍由非营利实体掌控。
在做出这一决定前,OpenAI已与加利福尼亚州及特拉华州总检察长办公室进行过沟通。OpenAI在发展之初曾获微软超百亿美元战略投资、并在软银今年领投的融资轮中估值达到3000亿美元,此次架构调整是对部分民间意见领袖及前员工诉求的回应。
OpenAI董事会主席布雷特・泰勒在与记者的视频通话中表示,“在我们正在筹划的架构下,非营利实体将继续掌控OpenAI。我们将把由该非营利组织控股的有限责任公司转型为公益责任公司。通过此举,该公司的股权结构将发生变化,使员工、投资者及非营利组织能够持有该公益责任公司的股权。
6. 化解半导体设备整合难题的思考
半导体设备是近几年最火热的赛道,因而其调整周期也最晚到来,目前设备整合成为行业最受关注的焦点。但由于各种局限,设备整合并未顺利展开,对此芯谋研究有以下几点思考。
减值退出拦路
半导体设备整合难度很大,有些地方政府投资难以退出成为主要障碍,同时有些社会资本也没有做好减值退出的准备。
地方藩篱设限
除了减值退出成为“拦路虎”之外,设备整合的关键是实现龙头企业平台化,但首先要打破地方政府“功成在我”的藩篱。
半导体设备企业平台化是全球产业规律。尽管半导体设备种类繁多,但根据SEMI的数据,2024年半导体设备销售额为1171亿美元,前5家全球龙头企业占据其中约70%的市场份额。这些核心企业覆盖众多细分领域,具备明显的平台化特征。目前国内半导体设备行业也呈现出明显的平台化倾向,龙头企业在优势产品之外,依靠强势的市场地位开始拓展产品线。中小企业内卷严重,它们大多上市无望,最好的选择就是被龙头企业并购整合。
市场主导并购
由于前述原因,地方政府很自然地试图主导并购整合。但设备行业整合终究是市场说了算,行政手段只能化解地方国资对并购整合的限制,而不能主导行业整合。
顶层设计破题
半导体设备整合进度决定着自立自强的进度,解决目前遇到的难题,似乎只有顶层设计才能快速推动并购整合。
中国半导体设备国产化依赖国内有限的市场和资源来推动,只能支撑为数不多的设备龙头企业。随着去中化等影响,国内半导体市场出现一定的萎缩,有限的国内市场愈发不应过度分散。设备行业的整合也愈发紧迫,如果整合速度过慢,就会严重影响龙头企业的成长,影响设备国产化的进度。
半导体设备整合成为现阶段中国半导体产业的核心问题,需要顶层设计来解决地方投资退出的问题。因为在中国半导体设备行业高速发展的初始阶段,地方政府的投资发挥了决定性作用。在并购整合阶段,地方政府投资因为国资减值的问题,也可以起到一票否决的作用。所以为了中国半导体设备产业的高质量发展,需要政府发挥决定性作用来解决地方投资退出的难题。
7. 谁拥有最多的AI芯片?
人工智能的进步依赖于指数级增长的人工智能超级计算机。自2010年以来,用于训练最著名人工智能模型的计算量每年增长4.1倍,从而实现了先进聊天机器人、图像生成和蛋白质结构预测等突破。
领先人工智能超级计算机的计算性能每9个月翻一番,这得益于更多和更好的AI芯片的部署(图1)。两个关键因素推动了这一增长:芯片数量每年增加1.6倍,以及每个芯片的性能每年提高1.6倍。虽然在2019年拥有超过1万个芯片的系统很少见,但到2024年,各公司部署的人工智能超级计算机的规模是当时的十倍以上,例如xAI拥有20万个AI芯片的Colossus。
领先人工智能超级计算机的电力需求和硬件成本每年翻一番。人工智能超级计算机的硬件成本每年增长1.9倍,而电力需求每年增长2.0倍。因此,截至2025年3月,性能最强的人工智能超级计算机,即xAI的Colossus,其估计硬件成本为70亿美元,电力需求约为300兆瓦——相当于25万户家庭的用电量。在电力需求大幅增长的同时,人工智能超级计算机的能源效率也更高了:每瓦计算性能每年提高1.34倍,这几乎完全归功于更节能芯片的采用。
如果观察到的趋势持续下去,到2030年6月,领先的人工智能超级计算机将需要200万个AI芯片,硬件成本将达到2000亿美元,电力需求将达到9GW。历史AI芯片生产的增长以及像5000亿美元的“星际之门计划”(Project Stargate)这样的重大资本投入表明,前两个要求很可能能够满足。
美国拥有75%的人工智能超级计算机,其次是中国。美国约占人工智能超级计算机总性能的四分之三,中国以15%位居第二。
文章包含2019年至2025年间500台AI超级计算机的数据集,发现性能、芯片数量、电力需求和硬件成本都呈指数级增长。AI超级计算机性能的快速增长,加上训练时长的增加,使得前沿AI模型的训练算力每年增长4-5倍,这推动了AI能力的显著进步,并进一步刺激了对基础设施的投资。如果趋势持续下去,到2030年,领先的AI超级计算机的硬件成本可能超过2000亿美元,并包含超过200万个AI芯片。然而,预计9吉瓦的电力需求在单个地点难以满足,很可能迫使公司采用跨多个站点的分布式训练方法。
我们的数据还揭示了AI超级计算机所有权的关键趋势,公司在AI超级计算机总性能中的份额从2019年的40%增加到2025年的80%以上。这一发现强调了先前观察到的工业界和学术界之间日益扩大的计算鸿沟。美国拥有全球约75%的AI超级计算机性能,并且很可能通过其对AI芯片供应链的控制保持这种主导地位。
总而言之,AI超级计算机一直是AI进步的关键驱动力,并且是AI供应链的核心组成部分。我们的分析提供了关于AI超级计算机的增长模式、分布和资源需求的宝贵信息。这些信息对于政策制定者以及更广泛地理解AI的发展轨迹将变得越来越重要。
8. HBM重构DRAM市场格局,2025年首季DRAM市占排名
一季度在AI服务器保持稳健推动对服务器DRAM需求,PC和移动需求复苏力度也较预期更为明显,此外叠加关税触发的部分补库存需求的共同影响下,2025年一季度整体表现优于预期,全球DRAM市场规模同比增长42.5%至267.29亿美元,环比减少8.5%。
然而不可忽视的是,在2025年一季度,SK海力士凭借在HBM领域的绝对优势,终结三星长达四十多年的市场统治地位,以36.7%的市场份额首度登顶全球DRAM市场第一。
其实从2024年SK海力士与三星在DRAM上的差距就已经开始减小,在4Q23和1Q24他们还保持有11%的份额差距,而到4Q24已经减小到1%;与之相对应的是,在HBM市场份额上,SK海力士与三星从最初的几乎五五分,到2025年一季度已经扩大到两倍以上的差距。尽管服务器DRAM bit出货量依然保持15%的环比增长,但因AI芯片的出口管制以及HBM3E-12hi产品需求推迟的影响,1Q25三星的HBM销售额环比大幅减少也令一季度DRAM销售额环比下跌17%(按韩币计算)。
9. 芯片战场巨头博弈四大关键市场!
全球芯片设计产业格局高度集中,TrendForce集邦咨询数据显示,2024年全球前十大芯片设计业者营收合计约2498亿美元,其中前五家厂商总计贡献逾90%营收。当前,英伟达、AMD、高通、联发科等IC设计巨头正围绕手机、AI PC、汽车、服务器四大关键市场积极展开布局;与此同时,随着AI推动高性能芯片需求上涨,加上市场竞争日趋激烈,产业链协同合作趋势明显。
随着半导体产业竞争加剧,AI驱动芯片性能大幅提升,半导体产业中封装、代工与设计等环节协同发展趋势明显,以持续探索芯片架构与性能的极限。
当前芯片设计公司与晶圆代工厂商的协同合作是最基础的模式,英伟达、高通、AMD、联发科等芯片设计公司需要台积电、三星、格芯、联电等晶圆代工厂商生产芯片产品。随着技术发展,半导体产业的合作正走向更深层次的协同优化,特别是在先进节点和封装技术上。
传统的单片系统级芯片(SoC)在微缩方面正逼近物理极限,其设计和制造成本与难度急剧增加。为了继续提升性能和集成度,业界正转向更先进的解决方案,如3D集成电路(3D-IC)、Chiplet(芯粒)和异构集成 。这些技术需要跨越设计、工艺、封装和系统等多个领域的专业知识进行协同优化。比如,实现高密度互连和管理复杂的多芯片系统热效应,需要设计公司、代工厂和封装厂的紧密配合。
此外,AI和HPC应用的爆发式增长,对专用、高性能、高能效的芯片(GPU、NPU、AI加速器)提出了极高要求。下游的系统厂商(如云服务提供商、汽车制造商)日益倾向于寻求针对特定应用定制或半定制的芯片解决方案,这直接推动了芯片设计公司与代工厂、甚至终端客户之间更紧密的合作关系,实现系统与技术的协同优化成为满足这些需求的关键。
全球芯片市场挑战与机遇并存,芯片设计作为半导体产业链核心,正迎来新一轮技术与生态模式变革,这场没有硝烟的战争正在手机、AI PC、汽车与服务器等领域打响,技术创新、产品迭代与产业链协同合作是厂商的重要“武器”。巨头博弈之下,芯片设计与半导体产业链将迎来什么新变化?我们拭目以待。
10. 黄仁勋:未来几年中国AI芯片市场将达500亿美元
5月6日,英伟达创始人兼CEO黄仁勋接受美国消费者新闻与商业频道(CNBC)采访时表示,中国人工智能市场可能在未来两到三年内达到约500亿美元规模(侧重硬件与算力需求),并强调美国企业若因政策限制错失这一市场,将面临收入损失、税收减少及就业机会流失的多重打击。
今年4月,美国政府正式通知英伟达,要求其向中国出口H20芯片需获得出口许可证,并明确这些限制将“无限期生效”。由于美国政府对中国出口的限制措施,英伟达不得不计提了55亿美元的季度费用。
目前,中国AI芯片市场规模快速增长,占全球市场的30%-40%,并展现出强劲的增长潜力。同时,黄仁勋也指出,中国在AI研究领域具有显著优势——全球50%的AI研究人员来自中国,且中美技术差距极小。
黄仁勋多次强调,中国是全球最大的半导体市场,美国公司无法进入这一市场将造成巨大的经济损失,包括收入、就业机会和税收等。他指出,AI芯片出口限制实际上会损害美国的国家安全,并与美国政府的初衷背道而驰。此外,他还提到,世界对AI技术的需求正在快速增长,美国企业应抓住机会,争取并占领全球市场。
2024年,尽管面临美国出口管制的挑战,但通过推出符合出口规定的新款H20芯片,英伟达成功在中国市场实现了约120亿美元的销售额。这一数字占其全球总营收的13%左右。
与此同时,尽管随着中国本土AI芯片厂商(如华为昇腾、寒武纪等)的崛起,英伟达的市场份额受到一定挑战,但其在中国AI芯片市场中仍然占据主导地位。IDC报告显示,2024年,中国计算芯片的市场规模增长迅速,超过270万张。其中,英伟达出货量占比70%超过190W片。
Copyright © 2021-2031,www.xy-semi.com.cn,All rights reserved版权所有 © 江苏芯缘半导体有限公司官网 未经许可 严禁复制 建议使用1366X768分辨率浏览本站
ICP:苏ICP备2022006250号