A股研究 · 机构视角
M
市场雷达 MarketRadar
洞察

AI算力与TMT深度研判:从基础设施狂潮到应用变现的关键拐点

2026年4月27日 · 约 30 分钟阅读
人工智能AI算力TMT大模型半导体数字经济

核心摘要

国产大模型能力跃升已证实,算力基础设施投资进入第二波加速;核心矛盾从"有没有"转向"赚不赚钱",应用变现将是下半年最重要的催化剂。

一、全球AI格局:中美博弈重塑竞争版图

GPT-5时代:Scaling Law的极限与新范式

OpenAI GPT-5于2025年末正式发布,多项基准测试成绩全面碾压GPT-4o,但业界开始出现对Scaling Law边际效益递减的讨论——简单堆参数的方式越来越贵、效率提升越来越慢。与此同时,以DeepSeek-R2、o1-preview为代表的”推理时Scaling”(Test-Time Compute)路线正在崛起:通过在推理阶段分配更多计算资源(多步骤推理链)来提升复杂任务表现,相比直接扩大训练规模更具经济性。

这一技术路线的转变,对A股投资有深刻含义:

  1. 推理需求激增 → 推理芯片(NPU)、推理专用服务器、边缘推理设备的需求结构性提升
  2. 模型蒸馏+量化技术成熟 → 小模型在手机、PC、工业设备端的部署成为可能(端侧AI爆发)
  3. “应用定义算力”的时代来临 → 算力需求将由下游应用的商业化节奏决定,而非单纯由训练规模决定

DeepSeek:颠覆预期的中国答案

DeepSeek-R2(2026年初发布)在数学推理(MATH-500)、代码生成(HumanEval)等核心基准测试上的表现,已与GPT-4o持平甚至局部超越,但训练成本仅为后者的约20-30%。这一突破的核心在于MLA(Multi-head Latent Attention)架构和混合专家(MoE)模型的深度优化,大幅降低了KV Cache内存占用和训练时间。

对A股的影响:

  • 算力需求仍然旺盛:国内AI训练集群的算力需求不会因DeepSeek的高效率而减少——相反,“以低成本训练更多模型”的逻辑会带来算力需求的倍增(Jevons Paradox)
  • 国产AI芯片获得更大空间:DeepSeek证明,在算法层面的优化可以弥补芯片性能的差距,国产芯片(昇腾)的劣势没有想象中那么致命
  • 应用公司迎来低成本推理时代:API调用成本大幅下降,toB/toC的AI应用商业化壁垒降低

中美科技战:出口管制升级与国产替代提速

美国商务部已多次更新芯片出口管制清单,核心管制逻辑是”算力密度”——凡是超过特定TOPS/W阈值的AI芯片,均不得对华出口。这不仅影响英伟达H100/H200/B200,也使AMD MI300X、英特尔Gaudi均受波及。

国内企业的应对:

  • 华为昇腾910C:2025年底量产,峰值FP16算力约256TFLOPS,对标H100(312TFLOPS),差距收窄至约20%;但互联带宽(只有H100 NVLink的约1/4)是集群扩展的瓶颈
  • 寒武纪思元590:推理场景优化,已在部分互联网公司的推荐系统中实现规模化部署
  • 海光信息DCU:AMD CDNA架构授权派生,CUDA兼容性最好,适合从英伟达迁移的算法工程师
  • 摩尔线程MTT S3000:国内GPU赛道的新玩家,支持OpenGL、Vulkan等图形API,游戏+AI双市场定位

二、算力基础设施:第二波加速周期的分析

全球数据中心投资:从”够用”到”永远不够”

微软、Google、Meta、亚马逊四家超大规模云厂商2026年资本支出预计合计超过3500亿美元,同比增长35%以上,其中相当部分用于AI基础设施。国内三大运营商同样大幅上调算力相关投资:中国移动2026年算力基础设施预算约530亿元(同比+28%),中国电信约320亿元,中国联通约240亿元。

与第一波数据中心建设(2016-2019年)不同,本轮投资的核心特征是:

  1. 功耗密度大幅提升:AI服务器机柜功耗从传统的5-10kW提升至50-100kW,液冷成为必需而非可选
  2. 互联带宽成为瓶颈:GPU训练集群的性能瓶颈从算力本身转向GPU间通信(InfiniBand/Ethernet)
  3. 电力成为核心约束:大型AI数据中心单体用电量可达百兆瓦级别,选址靠近电力资源成为关键

光模块:全球份额30%的中国制造

光模块是算力网络的神经纤维,每块800G QSFP-DD光模块约价值1000-1500美元,一台H100服务器配备8块,一个万卡集群需要光模块数万块。中际旭创、新易盛合计全球份额超过35%,已获得英伟达、微软、谷歌的直接采购资质。

技术路线进展:

  • 800G已成为主流,在超大规模数据中心大批量出货
  • 1.6T开始样品测试,预计2026年底小批量出货,2027年规模化
  • CPO(共封装光学):将光模块集成到交换机芯片旁边,减少传输损耗,博通、英特尔均已推出CPO产品,对传统可插拔光模块构成远期威胁(2028年后可能规模化)

液冷散热:从可选项到标准配置

AI服务器的功耗密度已经超过传统风冷的散热极限,液冷(包括冷板式和浸没式)成为50kW+高功耗场景的唯一选择。预计2026-2027年,全球新建AI数据中心中液冷渗透率将从15%快速提升至45%以上。

国内主要标的:英维克(机房精密空调+液冷龙头)、申菱环境(定制化数据中心空调)、飞荣达(散热材料)、新风光(散热模组)。

PCB高端产品:AI服务器的底层载体

AI服务器需要高速、高层数的PCB(印制电路板),主板层数从传统服务器的16-20层提升至40-50层,对介质材料(低介损)、钻孔精度(激光钻)的要求大幅提升,国内高端PCB供应商受益于英伟达GPU服务器的放量出货。


三、国产AI芯片:差距收窄与市场空间测算

昇腾vs英伟达:真实差距在哪里

从公开资料和测试数据综合评估,华为昇腾910C与英伟达H100的核心差距:

指标昇腾910CH100 SXM差距
FP16峰值算力256 TFLOPS312 TFLOPS-18%
显存带宽800 GB/s3350 GB/s-76%
集群互联带宽400 Gbps(HCCS)900 Gbps(NVLink)-56%
软件生态CANN(持续完善中)CUDA(20年积累)明显差距
供货稳定性受台积电代工产能约束较稳定较差

关键结论:在单卡推理小规模训练(百卡以内)场景,昇腾910C已经具备较强竞争力,部分客户(华为云、腾讯云、字节跳动)已在生产环境使用;但在万卡大规模训练集群(Scaling大模型的核心场景),互联带宽和软件生态的差距仍然显著,替代成本极高。

市场空间:国产算力卡2026年市场份额预测

基于行业调研和公开数据,估计:

  • 2025年国内AI训练芯片市场:约500-600亿元,英伟达占75%+,华为约15%
  • 2026年预测:市场规模扩大至800-1000亿元(需求高增),英伟达占比收缩至55-60%(出口管制升级推动),华为昇腾占25-30%,其他国产(寒武纪、海光)占10-15%

这意味着华为昇腾2026年的算力芯片收入区间在200-300亿元,寒武纪的潜在市场份额约60-100亿元(对应当前估值仍然偏高)。


四、AI应用层:哪些赛道已经能赚到钱

to B的本质:降本增效的ROI必须可见

企业采购AI产品的核心逻辑是”用AI替代人工或流程,实现可量化的成本节约”,而不是因为”AI很酷”。目前商业化程度最高的B端应用:

AI代码助手(GitHub Copilot在中国的平替):

  • 科大讯飞讯飞代码助手、阿里云通义灵码已在头部IT企业规模化部署
  • 实测数据:对初级程序员的效率提升约30-50%,对高级工程师约15-25%
  • 商业模式:SaaS订阅,单用户年费200-500元,头部软件企业用户规模数十万人

AI客服与营销

  • 已经最成熟的场景,大量人工外呼、客服座席被AI替代
  • 容联云、科大讯飞智能客服产品已有百万级并发接入量
  • 单座席年成本约5-8万元(人工)vs 约2-3万元(AI),替代经济性清晰

AI+医疗影像

  • 肺结节检测、病理切片分析、DR辅助诊断已在三甲医院规模化落地
  • 推想医疗、鹰瞳科技等AI医疗公司已有明确收入,但规模仍小
  • 最大瓶颈:医院采购预算有限,集中采购导致价格竞争激烈

to C的本质:用户愿意付费的应用闭环

  • AI搜索:秘塔AI、360AI搜索已有数千万用户,但付费转化率偏低(大多数功能免费)
  • AI社交/虚拟伴侣:Character.ai在海外有强劲付费数据,国内同类产品(百度文心、讯飞星火)受政策约束
  • AI教育:作业帮、猿辅导等K12平台AI化转型,家长付费意愿较强,但竞争激烈

五、A股TMT板块估值与选股逻辑

当前估值水位

细分板块2026E PE历史分位2025年营收增速
半导体设计45x55%+28%
半导体制造(中芯国际H)38x48%+22%
光模块30x60%+45%
AI服务器/ODM22x42%+38%
软件(AI化转型中)50x65%+12%
互联网(港股腾讯/阿里)18x35%+8%

关键观察:纯算力链(光模块、液冷、服务器)估值相对合理(30-45x PE对应高增速),软件类公司估值偏高但增速不及预期风险较大;港股互联网龙头(腾讯PE约18x、阿里PE约14x)估值明显低于A股同类,叠加高额回购,性价比突出。

选股框架:三看模型

  1. 看订单能见度:业绩透明度越高,估值泡沫越安全;光模块>IDC运营商>AI软件
  2. 看客户集中度:单一大客户依赖度>50%的公司,遭遇客户切换供应商风险极高
  3. 看国产替代壁垒:专有技术、长期绑定合同、认证周期是护城河;标准化产品容易被价格竞争侵蚀

核心标的梳理(仅供研究参考)

  • 中际旭创(300308):光模块全球一哥,800G已量产,1.6T研发领先,PE约28x,PEG<1,性价比最高
  • 工业富联(601138):富士康AI服务器代工核心工厂,AI服务器收入占比快速提升,PE约20x,低估值高成长
  • 英维克(002837):液冷散热龙头,订单快速增长,但当前PE约45x,需等回调买入
  • 海光信息(688041):DCU产品供不应求,但PE约80x(基于2026E盈利),估值已反映较多预期

六、风险因素专项分析

风险一:AI泡沫——业绩验证时间差

当前A股AI板块大部分涨幅基于2027-2028年盈利的远期预期。若2026年下半年财报季显示AI应用收入未达预期(尤其是软件类公司的AI收入占比),可能引发估值重估。历史类比:2015年互联网+泡沫、2020年云计算泡沫,均经历了预期过高→业绩不达→估值杀跌的过程。

风险二:中美科技脱钩加速

若美国将出口管制扩展到更大范围的半导体设备(例如限制ASML对华出口的DUV光刻机),国内晶圆厂(中芯国际)的14nm以下制程扩产将面临严重阻碍,影响国产AI芯片的交付能力和成本。

风险三:大模型价格战侵蚀应用公司利润

腾讯、百度、阿里等平台公司为争夺市场份额,持续进行大模型API价格战(每百万token从早期200元降至5元以下),这对下游AI应用公司是双面的:推理成本降低(好事),但基础能力免费化也压缩了差异化空间(坏事)。

风险四:GPU替代应用的颠覆性风险

尚未被市场充分讨论的风险:若AI代码生成、AI设计等工具足够强大,初级程序员、设计师的需求大幅减少,将影响对应的IT服务公司、招聘公司的营收。这是AI行业对TMT自身的”创造性破坏”。


七、12个月投资路径图

阶段一:2026年Q2(4-6月)——算力链继续,等待应用催化剂

  • 持仓重心:光模块、液冷、AI服务器代工
  • 等待信号:任何一家国内AI应用公司公布付费用户突破1000万的数据
  • 回避:纯概念、无收入的AI软件公司

阶段二:2026年Q3(7-9月)——半年报验证,应用层行情启动

  • 若半年报显示AI收入大幅增长,轮动至应用层(AI教育、AI企服、AI媒体)
  • 关注人形机器人供应链(宇树量产节点、特斯拉Optimus订单落地情况)
  • 算力链高位获利了结部分仓位

阶段三:2026年Q4(10-12月)——端侧AI新一轮催化剂

  • 苹果Apple Intelligence在iPhone 18全面落地,带动手机产业链(芯片、存储)
  • 国内安卓厂商(华为Mate 70 Ultra、小米15 Pro)端侧AI竞争加剧
  • 关注芯片SoC龙头(高通、联发科供应链)的弹性

投资结论

AI是2026年A股最重要的结构性主线,逻辑清晰、趋势明确、中期持续性强。但需要区分”真成长”和”纯概念”——前者有可量化的业绩增长(光模块的出货量数据、服务器代工的订单披露),后者仅有情绪驱动。

建议:算力链是底仓(确定性高),应用层是卫星仓(弹性大但波动大),整体TMT仓位建议控制在25-30%,避免单一赛道集中度过高带来的尾部风险。

港股互联网龙头(腾讯、美团)的AI布局+高额回购,提供了比A股TMT更好的风险收益比——建议作为TMT配置的重要补充。


本报告为策略分析,不构成具体投资建议。AI行业变化迅速,相关数据和判断可能快速过时,请以最新市场信息为准。

⚠️

本文为个人学习研究,不构成投资建议。多视角分析仅为思维框架参考,不代表相关人士真实观点。投资有风险,入市需谨慎。