AI 不再光拼模型,开始拼“能用起来”
2025年开始,AI 的热度已经不只是“谁家模型更大”,而是“谁能真正落地用起来”。
问题是——企业想用 AI,经常卡在两个点:
数据不够多:没法支撑大模型继续训练。
算力没用好:机器虽多,但效率不高,不同类型的算力融合也还不成熟。
01 智算行业爆发
AI 能跑起来,底层靠的是算力,尤其是“智能算力”(简称智算)。这块增长特别猛。
规模:到 2025 年一季度,中国的智算规模已经到 748 EFlops,占全球 35%;预计 2028 年会到 2781.9 EFlops,增长速度是普通算力的两倍多。
服务器市场:AI 服务器的需求爆炸,2025 年规模 1587 亿美元,2028 年预计能到 2227 亿美元。
需求来源:生成式 AI 应用疯狂增长,光 GenAI IaaS 在 2024 上半年就同比涨了 203.6%。
趋势变化:以前算力主要用来做“预训练”,现在更多是用在“后训练和推理”。
02 超智融合:把三种算力拧成一股绳
现在大家提到一个关键词:超智融合。
意思就是:把 高性能计算(HPC)+ AI 算力 + 通用算力 融合在一起用。
提高效率、降低能耗。
帮科研、制造、汽车这些行业升级。
科研:北大和联想搞的平台,把核磁影像分析时间从 15 分钟缩到 20 秒。
制造:三一重工用 AI 算力提升生产效率,成本下降 29%。
汽车:联想+吉利,用 HPC 集群做 5000 CPU 仿真,加速研发,已经落地 19 种应用。
03 难点:异构算力融合很麻烦
听起来很美好,但要把 HPC、AI、通用算力融合起来,实际很难。
硬件差异:HPC 多用 CPU,算精准度高(FP64);AI 算力更多靠 GPU/TPU,偏向 FP16/INT8;架构完全不一样。
计算方式不同:HPC 关注时间复杂度,AI 关注空间复杂度。
调度机制不一样,难统一。
算法逻辑差别大,结果不好融合。
04 解法:平台化
行业普遍觉得:做成一个平台是最优解。
比如联想的“万全异构智算平台”:
框架:“一横五纵”,把通用算力、科学算力、AI 算力都覆盖。
软件层:AI 编译优化+通信优化,让推理延时降 3 倍,带宽利用率 90%。
硬件层:兼容国内各种芯片,性能比纯 CPU 集群快 15 倍。
模型层:适配主流大模型(如 DeepSeek、LLM、MoE),训练和推理效率大幅提升。
行业共识:平台化 + 生态建设 = 当前最靠谱的路子。
未来的发展方向,就是 高性能计算、AI 智算和通用算力三合一。
硬件:越来越异构。
软件:协同化。
网络:泛在化(随时随地连上)。
形成一种新的“超级智能计算”,让 HPC 和 AI 的界限模糊,推动生产力和人类认知方式大跨步。