一、全球AI格局:中美博弈重塑竞争版图
GPT-5时代:Scaling Law的极限与新范式
OpenAI GPT-5于2025年末正式发布,多项基准测试成绩全面碾压GPT-4o,但业界开始出现对Scaling Law边际效益递减的讨论——简单堆参数的方式越来越贵、效率提升越来越慢。与此同时,以DeepSeek-R2、o1-preview为代表的”推理时Scaling”(Test-Time Compute)路线正在崛起:通过在推理阶段分配更多计算资源(多步骤推理链)来提升复杂任务表现,相比直接扩大训练规模更具经济性。
这一技术路线的转变,对A股投资有深刻含义:
- 推理需求激增 → 推理芯片(NPU)、推理专用服务器、边缘推理设备的需求结构性提升
- 模型蒸馏+量化技术成熟 → 小模型在手机、PC、工业设备端的部署成为可能(端侧AI爆发)
- “应用定义算力”的时代来临 → 算力需求将由下游应用的商业化节奏决定,而非单纯由训练规模决定
DeepSeek:颠覆预期的中国答案
DeepSeek-R2(2026年初发布)在数学推理(MATH-500)、代码生成(HumanEval)等核心基准测试上的表现,已与GPT-4o持平甚至局部超越,但训练成本仅为后者的约20-30%。这一突破的核心在于MLA(Multi-head Latent Attention)架构和混合专家(MoE)模型的深度优化,大幅降低了KV Cache内存占用和训练时间。
对A股的影响:
- 算力需求仍然旺盛:国内AI训练集群的算力需求不会因DeepSeek的高效率而减少——相反,“以低成本训练更多模型”的逻辑会带来算力需求的倍增(Jevons Paradox)
- 国产AI芯片获得更大空间:DeepSeek证明,在算法层面的优化可以弥补芯片性能的差距,国产芯片(昇腾)的劣势没有想象中那么致命
- 应用公司迎来低成本推理时代:API调用成本大幅下降,toB/toC的AI应用商业化壁垒降低
中美科技战:出口管制升级与国产替代提速
美国商务部已多次更新芯片出口管制清单,核心管制逻辑是”算力密度”——凡是超过特定TOPS/W阈值的AI芯片,均不得对华出口。这不仅影响英伟达H100/H200/B200,也使AMD MI300X、英特尔Gaudi均受波及。
国内企业的应对:
- 华为昇腾910C:2025年底量产,峰值FP16算力约256TFLOPS,对标H100(312TFLOPS),差距收窄至约20%;但互联带宽(只有H100 NVLink的约1/4)是集群扩展的瓶颈
- 寒武纪思元590:推理场景优化,已在部分互联网公司的推荐系统中实现规模化部署
- 海光信息DCU:AMD CDNA架构授权派生,CUDA兼容性最好,适合从英伟达迁移的算法工程师
- 摩尔线程MTT S3000:国内GPU赛道的新玩家,支持OpenGL、Vulkan等图形API,游戏+AI双市场定位
二、算力基础设施:第二波加速周期的分析
全球数据中心投资:从”够用”到”永远不够”
微软、Google、Meta、亚马逊四家超大规模云厂商2026年资本支出预计合计超过3500亿美元,同比增长35%以上,其中相当部分用于AI基础设施。国内三大运营商同样大幅上调算力相关投资:中国移动2026年算力基础设施预算约530亿元(同比+28%),中国电信约320亿元,中国联通约240亿元。
与第一波数据中心建设(2016-2019年)不同,本轮投资的核心特征是:
- 功耗密度大幅提升:AI服务器机柜功耗从传统的5-10kW提升至50-100kW,液冷成为必需而非可选
- 互联带宽成为瓶颈:GPU训练集群的性能瓶颈从算力本身转向GPU间通信(InfiniBand/Ethernet)
- 电力成为核心约束:大型AI数据中心单体用电量可达百兆瓦级别,选址靠近电力资源成为关键
光模块:全球份额30%的中国制造
光模块是算力网络的神经纤维,每块800G QSFP-DD光模块约价值1000-1500美元,一台H100服务器配备8块,一个万卡集群需要光模块数万块。中际旭创、新易盛合计全球份额超过35%,已获得英伟达、微软、谷歌的直接采购资质。
技术路线进展:
- 800G已成为主流,在超大规模数据中心大批量出货
- 1.6T开始样品测试,预计2026年底小批量出货,2027年规模化
- CPO(共封装光学):将光模块集成到交换机芯片旁边,减少传输损耗,博通、英特尔均已推出CPO产品,对传统可插拔光模块构成远期威胁(2028年后可能规模化)
液冷散热:从可选项到标准配置
AI服务器的功耗密度已经超过传统风冷的散热极限,液冷(包括冷板式和浸没式)成为50kW+高功耗场景的唯一选择。预计2026-2027年,全球新建AI数据中心中液冷渗透率将从15%快速提升至45%以上。
国内主要标的:英维克(机房精密空调+液冷龙头)、申菱环境(定制化数据中心空调)、飞荣达(散热材料)、新风光(散热模组)。
PCB高端产品:AI服务器的底层载体
AI服务器需要高速、高层数的PCB(印制电路板),主板层数从传统服务器的16-20层提升至40-50层,对介质材料(低介损)、钻孔精度(激光钻)的要求大幅提升,国内高端PCB供应商受益于英伟达GPU服务器的放量出货。
三、国产AI芯片:差距收窄与市场空间测算
昇腾vs英伟达:真实差距在哪里
从公开资料和测试数据综合评估,华为昇腾910C与英伟达H100的核心差距:
| 指标 | 昇腾910C | H100 SXM | 差距 |
|---|---|---|---|
| FP16峰值算力 | 256 TFLOPS | 312 TFLOPS | -18% |
| 显存带宽 | 800 GB/s | 3350 GB/s | -76% |
| 集群互联带宽 | 400 Gbps(HCCS) | 900 Gbps(NVLink) | -56% |
| 软件生态 | CANN(持续完善中) | CUDA(20年积累) | 明显差距 |
| 供货稳定性 | 受台积电代工产能约束 | 较稳定 | 较差 |
关键结论:在单卡推理和小规模训练(百卡以内)场景,昇腾910C已经具备较强竞争力,部分客户(华为云、腾讯云、字节跳动)已在生产环境使用;但在万卡大规模训练集群(Scaling大模型的核心场景),互联带宽和软件生态的差距仍然显著,替代成本极高。
市场空间:国产算力卡2026年市场份额预测
基于行业调研和公开数据,估计:
- 2025年国内AI训练芯片市场:约500-600亿元,英伟达占75%+,华为约15%
- 2026年预测:市场规模扩大至800-1000亿元(需求高增),英伟达占比收缩至55-60%(出口管制升级推动),华为昇腾占25-30%,其他国产(寒武纪、海光)占10-15%
这意味着华为昇腾2026年的算力芯片收入区间在200-300亿元,寒武纪的潜在市场份额约60-100亿元(对应当前估值仍然偏高)。
四、AI应用层:哪些赛道已经能赚到钱
to B的本质:降本增效的ROI必须可见
企业采购AI产品的核心逻辑是”用AI替代人工或流程,实现可量化的成本节约”,而不是因为”AI很酷”。目前商业化程度最高的B端应用:
AI代码助手(GitHub Copilot在中国的平替):
- 科大讯飞讯飞代码助手、阿里云通义灵码已在头部IT企业规模化部署
- 实测数据:对初级程序员的效率提升约30-50%,对高级工程师约15-25%
- 商业模式:SaaS订阅,单用户年费200-500元,头部软件企业用户规模数十万人
AI客服与营销:
- 已经最成熟的场景,大量人工外呼、客服座席被AI替代
- 容联云、科大讯飞智能客服产品已有百万级并发接入量
- 单座席年成本约5-8万元(人工)vs 约2-3万元(AI),替代经济性清晰
AI+医疗影像:
- 肺结节检测、病理切片分析、DR辅助诊断已在三甲医院规模化落地
- 推想医疗、鹰瞳科技等AI医疗公司已有明确收入,但规模仍小
- 最大瓶颈:医院采购预算有限,集中采购导致价格竞争激烈
to C的本质:用户愿意付费的应用闭环
- AI搜索:秘塔AI、360AI搜索已有数千万用户,但付费转化率偏低(大多数功能免费)
- AI社交/虚拟伴侣:Character.ai在海外有强劲付费数据,国内同类产品(百度文心、讯飞星火)受政策约束
- AI教育:作业帮、猿辅导等K12平台AI化转型,家长付费意愿较强,但竞争激烈
五、A股TMT板块估值与选股逻辑
当前估值水位
| 细分板块 | 2026E PE | 历史分位 | 2025年营收增速 |
|---|---|---|---|
| 半导体设计 | 45x | 55% | +28% |
| 半导体制造(中芯国际H) | 38x | 48% | +22% |
| 光模块 | 30x | 60% | +45% |
| AI服务器/ODM | 22x | 42% | +38% |
| 软件(AI化转型中) | 50x | 65% | +12% |
| 互联网(港股腾讯/阿里) | 18x | 35% | +8% |
关键观察:纯算力链(光模块、液冷、服务器)估值相对合理(30-45x PE对应高增速),软件类公司估值偏高但增速不及预期风险较大;港股互联网龙头(腾讯PE约18x、阿里PE约14x)估值明显低于A股同类,叠加高额回购,性价比突出。
选股框架:三看模型
- 看订单能见度:业绩透明度越高,估值泡沫越安全;光模块>IDC运营商>AI软件
- 看客户集中度:单一大客户依赖度>50%的公司,遭遇客户切换供应商风险极高
- 看国产替代壁垒:专有技术、长期绑定合同、认证周期是护城河;标准化产品容易被价格竞争侵蚀
核心标的梳理(仅供研究参考)
- 中际旭创(300308):光模块全球一哥,800G已量产,1.6T研发领先,PE约28x,PEG<1,性价比最高
- 工业富联(601138):富士康AI服务器代工核心工厂,AI服务器收入占比快速提升,PE约20x,低估值高成长
- 英维克(002837):液冷散热龙头,订单快速增长,但当前PE约45x,需等回调买入
- 海光信息(688041):DCU产品供不应求,但PE约80x(基于2026E盈利),估值已反映较多预期
六、风险因素专项分析
风险一:AI泡沫——业绩验证时间差
当前A股AI板块大部分涨幅基于2027-2028年盈利的远期预期。若2026年下半年财报季显示AI应用收入未达预期(尤其是软件类公司的AI收入占比),可能引发估值重估。历史类比:2015年互联网+泡沫、2020年云计算泡沫,均经历了预期过高→业绩不达→估值杀跌的过程。
风险二:中美科技脱钩加速
若美国将出口管制扩展到更大范围的半导体设备(例如限制ASML对华出口的DUV光刻机),国内晶圆厂(中芯国际)的14nm以下制程扩产将面临严重阻碍,影响国产AI芯片的交付能力和成本。
风险三:大模型价格战侵蚀应用公司利润
腾讯、百度、阿里等平台公司为争夺市场份额,持续进行大模型API价格战(每百万token从早期200元降至5元以下),这对下游AI应用公司是双面的:推理成本降低(好事),但基础能力免费化也压缩了差异化空间(坏事)。
风险四:GPU替代应用的颠覆性风险
尚未被市场充分讨论的风险:若AI代码生成、AI设计等工具足够强大,初级程序员、设计师的需求大幅减少,将影响对应的IT服务公司、招聘公司的营收。这是AI行业对TMT自身的”创造性破坏”。
七、12个月投资路径图
阶段一:2026年Q2(4-6月)——算力链继续,等待应用催化剂
- 持仓重心:光模块、液冷、AI服务器代工
- 等待信号:任何一家国内AI应用公司公布付费用户突破1000万的数据
- 回避:纯概念、无收入的AI软件公司
阶段二:2026年Q3(7-9月)——半年报验证,应用层行情启动
- 若半年报显示AI收入大幅增长,轮动至应用层(AI教育、AI企服、AI媒体)
- 关注人形机器人供应链(宇树量产节点、特斯拉Optimus订单落地情况)
- 算力链高位获利了结部分仓位
阶段三:2026年Q4(10-12月)——端侧AI新一轮催化剂
- 苹果Apple Intelligence在iPhone 18全面落地,带动手机产业链(芯片、存储)
- 国内安卓厂商(华为Mate 70 Ultra、小米15 Pro)端侧AI竞争加剧
- 关注芯片SoC龙头(高通、联发科供应链)的弹性
投资结论
AI是2026年A股最重要的结构性主线,逻辑清晰、趋势明确、中期持续性强。但需要区分”真成长”和”纯概念”——前者有可量化的业绩增长(光模块的出货量数据、服务器代工的订单披露),后者仅有情绪驱动。
建议:算力链是底仓(确定性高),应用层是卫星仓(弹性大但波动大),整体TMT仓位建议控制在25-30%,避免单一赛道集中度过高带来的尾部风险。
港股互联网龙头(腾讯、美团)的AI布局+高额回购,提供了比A股TMT更好的风险收益比——建议作为TMT配置的重要补充。
本报告为策略分析,不构成具体投资建议。AI行业变化迅速,相关数据和判断可能快速过时,请以最新市场信息为准。