狂飙的算力基建,如何实现「价值闭环」?丨GAIR 2025



实现商业闭环,提供「方便、易用、便宜」的算力是关键。

作者丨刘伊伦

编辑丨包永刚

2025年12月12-13日,第八届GAIR全球人工智能与机器人大会在深圳·博林天瑞喜来登酒店正式启幕。

作为AI产学研投界的标杆盛会,GAIR自2016年创办以来,始终坚守“传承+创新”内核,始终致力于连接技术前沿与产业实践。

13日「AI 算力新十年」专场的“如何从‘算力基建’到‘价值闭环’?”圆桌对话中,数位业内资深专家展开精彩对谈与深度探讨,抛出诸多极具启发性的观点:

参与本次圆桌论坛的嘉宾包括:

三位深耕行业的资深实践者,共同开启这场关于算力基建价值重构与未来趋势的深度对话。他们中,有人立足资本视角洞察产业脉搏,有人扎根技术前线打磨产品落地,有人坐镇企业中枢统筹算力资源,不同维度的经验碰撞,为算力行业的破局之路提供全新思考。

而这些观点,恰恰聚焦于算力基建狂飙突进背后的关键拷问:价值闭环该如何构建?被寄予厚望的推理需求,究竟何时能迎来全面爆发,成为破解算力闲置的核心引擎?展望未来,算力产业还有哪些值得“押注”的核心方向?作者长期关注算力与芯片产业,欢迎添加微信YONGGANLL6662交流更多信息。

以下是圆桌对话的精彩内容,雷峰网作了不改变原意的整理与编辑:

李东东(主持人):各位嘉宾、同仁,下午好!我是本场圆桌主持人李东东。三丰投资深耕股权投资十余年,今年重点布局算力与能源领域,在AI算力领域我们投资了智算通、利旧科技等项目。今天有幸主持论坛,与大家探讨大规模算力基建的价值闭环实现路径。

当前算力赛道热度高涨,但痛点显著。信通院数据显示,不少智算中心算力平均利用率不足40%,算力消纳已成行业通病。尤其大模型训练退潮后,增量需求转向推理侧,而推理场景分散零碎,如何破解这一困境,是行业核心议题。

今天我们有幸邀请到清程极智联合创始人师天麾、朗擎数科CIO徐永昌两位专家分享见解。首先,请两位嘉宾做自我介绍。

师天麾:大家好,我是清程极智联合创始人兼产品副总裁师天麾。公司聚焦AI Infra软件层,去年推出八卦炉训练系统,今年开源赤兔推理引擎,目前正打造大模型MaaS API一站式评测与调用平台AI Ping。

徐永昌:大家好,我是徐永昌。目前联合朗特智能控股打造液冷算力产品,深耕分布式架构,熟悉AI全栈技术栈。我已与英特尔、英伟达、华为海思、海光、阿里平头哥、百度昆仑芯、摩尔线程、沐曦、燧原、壁仞、天数智芯、灵汐科技、中兴通讯、锐捷、星融元等海内外芯片、网络厂商深度沟通,逐步推进浸没式液冷产品适配。

我们核心解决两大问题:一是降低成本,公司液冷产品成本可控制在风冷水平;二是降低PUE至1.1。国家发改委、数据局明确要求新建智算中心PUE需低于1.3,而传统风冷智算中心PUE普遍约1.5,2026年起风冷智算中心将逐步转向液冷方案。

目前英伟达GB200及马斯克20万卡集群均采用冷板式液冷,不仅造价高昂,GPU满载温度仍达85℃。我们采用浸没式液冷方案,可将GPU满载温度从80-90℃降至50-60℃,显著降低设备故障率,降低维保成本。

设备故障率降低将大幅提升千卡、万卡集群的MFU。当前全球万卡集群平均MFU仅30%,采用我们的液冷方案后,有望将这一数值提升至50%以上,这是大模型预训练对算力要求的核心指标,也是我们的核心技术优势。

01

算力基建如何实现商业闭环?

李东东(主持人):今年算力行业的发展可以说是走到了新的高峰,当前行业内常说“算力是数字经济的核心生产力”,结合两位各自的从业背景,你们认为目前国内算力基建的发展走到了哪个阶段?

师天麾:当前算力建设与以往核心区别在于,过去重建设、轻消纳与使用;如今更强调性价比,核心是“建即用、用更好”。建设前需明确用户与场景:是做MaaS模式下的PD分离、批量对外租赁,还是类似超算的Slurm分时复用。不同模式与场景,对硬件选型、组网及软件平台的功能、性能要求均不同。行业已转向实用导向,需从应用场景与客户需求倒推软件搭建与算力中心建设,实现从“可用”到“好用、高性价比”的升级。

徐永昌:今年行业发展可分为两个阶段。上半年,DeepSeek-R1开源标志着其推理大模型已追平OpenAI-o1。短短一年半实现OpenAI八年的成果,核心并非算力或算法,而是数据——DeepSeek团队以中文为核心Token,构建高质量数据集开展预训练与后训练。中文常用字仅数千个,远少于英文百万级单词量,但汉字天然具备强关联性与可预测性,英文需逐Token预测,中文则可由首字同步预测后续多字。这一特性为行业垂类模型带来机遇:构建足量高质量数据,即可提升模型垂类问题解决效果。

下半年,对话机器人、Agent等垂类模型加速爆发。以华西第二医院(全国妇幼综合榜首)为例,院长日均接诊仅10余人次(每次30-40分钟)。我们将院长经验转化为高质量数据集与知识库,通过后训练打造AI分身,其在儿科呼吸领域诊疗水平已达院长90%。患者就诊前先经AI医生多轮预诊,归纳常见问题并汇总至院长工作看板,使单次问诊时长压缩至5分钟,日接诊量提升至30人。

客户无需自建机房,仅需一台4090或5090服务器搭配我们1立方米的TANK箱,即可获得本地私有化算力解决方案,实现软硬件一体化落地。下半年起,客户付费意愿显著提升,核心是价值交换的达成:芯片+模型+Agent的组合切实解决实际问题、创造价值。预计明年,这类落地场景将迎来爆发。

李东东(主持人):徐总的观点我非常认同,整个AI新基建核心就是算力、算法和数据。我们在投具身智能项目时有一个观点,为什么要做“人形机器人”?核心原因就是人类世界有大量的数据可以供机器人学习,这是人型相对其他形态的数据优势,中文世界也给中国反超世界AI,提供了很强的数据基础。

我们今天核心探讨“从算力基建到价值闭环”,能否请两位分别定义一下:在你们的业务场景中,“算力价值闭环”的核心标志是什么?它需要满足哪些关键条件?

师天麾:算力作为基础设施,核心价值在于用户能否便捷、低门槛地应用。行业实现盈利的前提,是落地场景具备实际价值。杀手级应用是价值核心载体,而其涌现需先实现应用“百花齐放”——唯有算力达到易用、低成本的标准,AIGC创作者才能充分发挥创造力,AI应用开发者也能结合场景推进落地。综上,算力价值体现在“方便、易用、便宜”三大核心点。

我特别关注MaaS模式,它已基本解决算力可用性与易用性问题:用户无需关注算力底座的芯片型号,也无需操心推理引擎的跨型号运行逻辑。芯片厂商可联合软件厂商,通过大规模EP并行、PD分离等优化技术,大幅降低成本、提升性价比,这是关键突破口。

徐永昌:价值闭环的核心是AI方案能在业务场景落地并实现盈利。以某年营业额数亿的房地产销售公司为例,其核心业务是为楼盘提供工具支持:初期通过MaaS模式接入豆包的多模态大模型API,将客户与销售的沟通语音转化为文字,经微调大模型实时分析客户成交意向,助力提升成交量,开发商因此愿意付费。

另有一家AI应用公司,Token消耗量从春节的10亿快速增长至5月的40亿,虽豆包MaaS团队提出可承接超50亿Token/日的需求,但该公司出于数据与策略的核心价值考量,提出私有化算力存储需求。最终朗擎为其提供浸没式一体机本地算力解决方案。

用户付费意愿本质取决于两点:一是AI能帮其盈利,二是能解决数据安全、效率提升及成本降低等核心痛点。唯有切实破解对方问题、助力其实现盈利,才能形成真正的价值闭环。

李东东(主持人):从帮客户省钱,到帮客户赚钱。上半年,我们其实也有自己的答案。3月份,我们跟北京爱收控股一起成立了合资公司智算通,我们对商业闭环的理解是,国内很多算力卡的流通效率是不高的,且机房空置率较高,所以我们这个被投企业在算力卡回收的业务上做了数亿元的营收,核心是帮客户极致节省采购成本、硬件成本,这也是一种节流的方式。

从技术落地层面来看,算力基建往往面临算力适配性不足、调度效率低、数据与算力脱节等问题。请问师博士,清程极智在推动算力与AI应用场景深度融合时,最核心的产品和技术痛点是什么?您如何将高成本的算力转化为客户可感知、愿付费的产品价值?

师天麾:AI项目实际落地时,国央企客户多为自建算力,硬件涵盖英伟达新旧显卡及多款国产型号,需求也呈多元化特征。其诉求并非仅部署DeepSeek等单一模型,而是聚焦多模态智能体应用,需兼容OCR、VAL、语音及图文生成等多种模型。

面对底层硬件繁杂、上层应用多元的情况,不同应用与模型适配各型号显卡的工作量极大。为此,我们在中间层搭载推理引擎,可实现底层多型号显卡的便捷调用与上层多应用的顺畅运行。

我们采用分阶段服务:场景验证阶段,1-2台服务器即可完成研发与AI效果评估;若需向多区域、多人员大规模落地,我们将进一步提供硬件选型指导及针对硬件、规模与应用的联合优化,最大化提升性价比。

李东东(主持人):下一个问题请教一下徐总,从企业实践层面来看,朗擎数科作为数字化服务提供商,必然会接触到不同行业客户的算力需求。您做为企业的技术决策者能否分享一下,企业在投入算力基建后如何衡量其投资回报率?以及最容易陷入哪些“价值陷阱”?比如盲目追求算力规模、忽视应用落地效果、缺乏可持续的商业模型等,您认为背后的核心原因是什么?

徐永昌:算力行业的行业应用落地,核心前提是做好技术选型,我接触的客户主要分为三类:第一类仅关注服务器TFLOPS算力参数,这类选型方式隐患极大;第二类会结合具体模型需求关注算力+显存,比如为运行DeepSeek满血版,会针对性核算一体机所需的1.4T显存(或量化后700G显存);第三类以自有软件团队的客户为代表,需求更为精细,如华西第二医院会明确CPU核数、主频等细节,因单纯部署开源模型与结合行业数据做微调训练、强化学习的算力需求差异显著。

某院所不到一千万预算的项目,初期供应商推荐十几台4090,但PCIE协议不适合大模型训练,后来又推荐H200方案,而我参与项目后结合客户“科研类后训练及先进验证”的核心需求,推荐了B200,理由有三:一是Blackwell架构支持FP4精度,较H200Hopper架构以及4090只支持FP8精度更具未来三年的适用性;二是性价比更高,同成本下B200推理算力(FP4下144P)远超H200(FP8下32P);三是浸没式液冷方案改造费不超过50万,与传统风冷相当,却能将GPU核心温度从90-100℃降至60-70℃,大幅降低故障率、提升MFU。

另一案例是山东某年营收700亿的石油炼化企业,计划投建3000P算力中心以获取政府电费补贴。我建议通过技术优化将PUE降至1.1,摆脱对补贴的依赖,硬件上无需强上国产GPU,直接选用B200即可满足训练+推理需求;同时提出将3000P拆分为10个300P项目,落地至不同区县——既契合区县智算中心的市场需求,又能结合多区县“十五五”AI+产业落地政策。总结而言,算力选型的核心是“由应用场景及模型倒推”,而非盲目采购服务器。

李东东(主持人):这种现象挺常见的,甲方客户的需求相对明确,但是甲方客户自身并没有很专业全栈解决方案认知,所以前置咨询以及方案的沟通非常重要。这也引入了我们下一个问题,影响价值转化的瓶颈,除了甲方对方案的不了解之外,还有没有其他的点?比如商业模式、技术落地方案或其他的场景?

师天麾:与过往市场逻辑不同,此前行业普遍采用先采购服务器再规划后续业务的模式,市场竞争陷入同质化内卷,整体利润空间被严重挤压。而随着MaaS的爆发,市场格局已发生很大转变。

我之所以高度看好MaaS,除其具备低成本、易部署的核心优势外,更关键在于其清晰且短链路的盈利逻辑。MaaS模式恰好打通了技术与盈利的转化路径,中间无过多环节干扰,技术实力的每一次提升,都能直接带动利润率增长。因此,技术是当前MaaS市场的核心竞争力,预计明年该市场规模有望实现数倍甚至十倍的增长。

值得注意的是,尽管MaaS市场仍存在价格竞争,但与此前服务器市场的竞争逻辑已截然不同。过往服务器市场的竞争聚焦于硬件本身,企业多通过压低设备售价抢占份额;而在MaaS领域,客户核心关注点在于服务性能与综合报价,对底层硬件配置并无过多关注。企业可借助软件技术优化,在不依赖高端硬件的前提下,实现服务性能与性价比的双重提升,从而有效控制成本,保障充足的利润空间。综上,在MaaS这一云服务场景中,技术已成为决定市场竞争力的关键要素。

徐永昌:非常认同师博士关于AI价值闭环痛点与瓶颈的观点,我将其划分为三大核心层面。其一,核心痛点聚焦于大模型本身:基座大模型的泛化能力、专业知识理解能力仍有提升空间;即便MoE架构的万亿参数模型已出现,但诸多场景中,当前小模型的基础能力实则被高估。不过大语言模型发展存在明确规律,每半年左右,上一代大尺寸模型的核心能力便会迁移至更小尺寸的模型中。

以实际案例来看,千问2.5具备满尺寸模型版本,而千问3的32B模型性能已比肩千问2.5的72B模型,这一能力迁移过程具有不可逆性。据此推测,半年后32B模型在多项核心能力上,或将达到年初DeepSeek 671B满血版的基础水平。因此,基座大模型能力的持续迭代是核心前提,无论是国外的OpenAI,还是国内的DeepSeek、MiniMax等企业,仍需布局GB200、GB300等先进算力,持续推进基座大模型的构建与优化。

其二,在基座模型成型后,行业模型后训练阶段面临的核心问题是如何构建高性价比的算力及综合解决方案。当前最优路径指向超节点架构:类似英伟达GB200、GB300的方案,通过Scale-up模式将数十个乃至数百个GPU借助高速光互联技术整合,在逻辑上实现单服务器化运行。这种架构可支持训推一体(日间用于推理、夜间开展后训练),大幅降低单Token生成的综合成本。据英伟达案例显示,H200与GB200在单Token生成成本上存在数倍差距。预计2026年起,众多企业将逐步摒弃传统4U、8卡服务器,转向高速互联的数百卡Scale-up超节点,这种架构的普及将缩短行业模型训练周期、降低成本,加速价值转化进程。

其三,特定垂类场景的突破,离不开高质量数据与行业专家资源对模型的持续优化。以华西医院为例,其坐拥全国最大规模的100亿条真实电子病历库,且汇聚了国内许多顶级医学科学家,为医疗垂类模型优化提供了核心支撑。

唯有依托优质基座模型、适配垂类需求的超节点算力,叠加高质量行业数据与专家资源,才能推动AI Agent真正解决更多实际问题。这三大层面的问题需系统性突破,否则AI行业仍可能延续今年的现状,市场热度高涨,但具备实际应用价值的产品寥寥无几,这正是我对当前AI价值闭环瓶颈的核心判断。

李东东(主持人):师博士,清程极智在AI产品研发与算力调度优化方面有丰富经验,你们认为要实现算力的高效价值转化,在算力架构设计、算法与算力协同、数据治理等方面,有哪些关键技术举措或关键指标能清晰体现算力投入给客户带来了真实的业务增长或效率革命?能否结合具体案例(比如某行业的AI应用落地)分享一下?

师天麾:正如前面讲到的,AI模型真正落地时,亟需极致的全链路优化。以去年的合作案例为例:我们曾与清华系多模态大模型企业生数科技(专注于图片、视频类模型及产品研发)携手,针对其一款To C图片生成产品进行优化。该产品基于ComfyUI(图片生成工作流工具)开发,当时单张图片生成耗时达30秒,这速度虽在图片生成领域处于可接受范围,但显著影响用户体验,双方因此达成联合优化共识。

我们全面掌握了该产品的底层硬件显卡规模、上层运行的图片大模型架构及具体工作流逻辑。基于对全场景的深度理解,我们在自有推理产品上为其提供定制化优化方案,并联动其团队开展算法与系统的联合调优。最终,产品性能实现5-6倍的大幅提升。由此可见,未来AI模型落地过程中,这种覆盖硬件、中间件至上层算法应用的全链路打通及联合优化模式,将呈现持续增长的趋势。

李东东(主持人):徐总,朗擎数科服务过众多企业客户,你们在帮助客户搭建算力相关的解决方案时,是如何筛选核心应用场景、优先落地高价值项目的?有没有一套可复制的“算力+应用”落地方法论?

徐永昌:我分享的算不上方法论,更多是实践积累的经验。在与客户沟通时,无论是出资方,还是最终使用方,我们首要传递的是本轮AI浪潮的核心,大语言模型的基本特征,“算力、数据、算法模型”三要素,而非仅聚焦于所需的几百P算力这类单一指标。

其次,要明确客户的核心诉求:其引入模型基本上并非为了预训练,关键是厘清其需求是模型后训练还是单纯的推理应用,这两类需求对应的算力配置与解决方案截然不同。当我们向客户完整呈现本轮AI的产业全貌后,即便当下未达成合作,未来其面临 AI 相关规划或项目时,也会优先咨询我们。因此,与甲方沟通时需打破一些局限,展开更全面、更深入的交流。

第三,必须对接业务专家。业务专家深谙完整业务流程,比如为客户搭建Agent系统时,需通过他们明确工作流中的优化节点,判断哪些环节适合用大模型或多模态模型改造。仅与管理层沟通无法触及核心问题,唯有与业务专家深入对接,精准采集需求与痛点,才能给出合理的评估与预期管理。预期管理尤为关键:既要避免客户对AI短期价值产生过高预期,也要帮助客户树立中长期信心,AI必将引领行业变革,若不布局,同行的探索会使其陷入被动,短期与中长期预期的平衡能帮助客户建立合理认知。

最后,AI全栈方案的输出能力至关重要。以部分芯片公司为例,它们虽以GPU销售为核心,但需构建完整的产业闭环:既要明确千卡集群的实际使用者,也要确定服务器资产的承载主体或落实供应链金融方案,还需对接服务器集成方完成芯片部署。所以AI产业链从业者与客户沟通时,需具备全栈思维,不是在每个环节都做到极致专业,但必须能精准覆盖各关键节点并清晰阐述。

总而言之,唯有以全栈视角、坦诚态度与客户展开全方位交流,当客户真正推进 AI 应用落地时,才会将我们作为首要合作选择。

02

推理尚处爆发前夜?

多模态的「快速迭代」将改写产业增长节奏

李东东(主持人):行业内普遍将杀手级应用的诞生、推理需求的爆发,视作破解算力闲置困局的关键抓手,也将其视为下一波算力需求增长的核心引擎。二位如何判断推理需求全面爆发的时间节点与演进节奏?

师天麾:今年AI推理市场已步入爆发前夜。正如我在演讲中提及,上半年中国MaaS市场规模已实现4-5倍增长,部分大厂管理层甚至预判明年增速有望达到10倍。但在我看来,真正的全面爆发仍依赖大模型能力的进一步突破。

当前落地成效较好的场景,多集中于纯文本大语言模型的应用,且多为前一两年可预见的领域,例如智能客服、聊天机器人、文本生成与整理等。但纯文本场景的覆盖面有限,AI的广泛渗透更需依托视觉、图片、视频等多模态技术的成熟。目前多模态应用存在两大核心痛点:效果不稳定且成本过高。

我曾与一位专注动态漫创作的导演交流,其业务核心是将小说转化为漫画并实现动态化。我提出AI可覆盖其大部分创作流程,但他表示可行性较低,核心原因在于AI应用成本过高,仅能小范围尝试。事实上,AI具备完成这类任务的技术潜力,但高昂的成本形成了显著壁垒。以图片、视频生成的“抽卡”机制为例,单张生成成本已偏高,而因效果不确定性,往往需生成4-10张才能筛选出符合需求的结果,这进一步加剧了成本负担。

AI推理市场的全面爆发,首要前提是多模态应用效果的稳定化,这也是AI Infra领域的核心发力点。当模型结构基本定型后,通过针对主流显卡、芯片的定向优化,可有效提升运行效率、降低成本,为全面爆发奠定基础。因此,多模态技术的进展至关重要。

目前多模态领域的发展值得期待。文本大模型的效果已许久未出现突破性的震撼进展,但图片领域几乎每几个月就有新的视频或图片生成模型引发社交平台热议,技术迭代速度显著快于文本领域,未来潜力值得关注。

徐永昌:在我看来,2025年AI推理市场尚未进入全面爆发阶段。这一判断可从我们与头部主流大模型企业的沟通中得到印证,其服务器采购、租赁订单的增长态势,直观反映出当前市场的增长节奏仍较为平缓。

不过,孙正义曾预测,到2035年AI将渗透全球5%的GDP,对应形成每年9万亿美元的庞大市场规模。据此倒推,未来数年推理算力需求大概率将保持每年十倍以上的高速增长。对在座各位而言,核心问题在于如何切入这一蓝海市场、抢占细分份额。

头部大厂及大模型企业凭借庞大的用户基数,自然占据算力需求增长的主要赛道。但对行业内的中小企业而言,突破口在于聚焦垂类场景与边缘侧算力服务。以我们自身为例,我们提供液冷服务器整体方案,并结合垂类模型服务,为医院、工厂、科研机构等场景提供本地化部署支持,这种模式能切实帮助AI应用企业提升营业额。

比如我们与华西医院体系控股公司的合作:对方输出软件能力,我们提供硬件支撑,共同打造软硬件一体化方案,并依托华西的品牌优势,在全国推广“AI 医联体”项目。该模式对全国大量中小医院、民营医院具备极强的吸引力。这一案例或许能带来启发:中小企业要么融入成熟的垂类应用方案生态,成为其中关键环节;要么主动对接行业链主企业,联合构建垂类AI Agent整体解决方案。企业需主动谋划经营发展,而非被动等待市场成熟。

李东东(主持人):这一趋势成为算力产业主流后,又将对当前的算力基建布局、技术路径选择及商业模式带来哪些影响?

师天麾:生产力发展必然伴随转型阵痛,正如汽车普及导致黄包车夫失业,却催生了司机这一新职业。AI对各行业的重塑亦是如此,在其全面爆发前,可能会涌现出诸多未曾预料的杀手级应用与全新玩法。这就像互联网爆发初期,没人能预见如今刷短视频、看短剧会成为日常,也没人想到最初为学习、看时政新闻而使用的抖音,最终走向了多元娱乐场景。人类难以想象未曾接触过的事物,但可以确定的是,AI将深刻改变各行业生产方式:部分行业与职业会逐渐消失,同时也会催生大批新职业、新赛道。这些新赛道的具体形态虽难以精准预判,但值得高度期待。

徐永昌:AI的广泛普及,首要前提是成本实现一个数量级的下降,每百万Token的价格需再降低10倍以上。而这一目标的实现,核心在于全系统优化:机房层面可通过风冷改液冷提升效率;硬件端采用超节点架构,性价比远高于传统4U、8卡服务器;模型层面可依托大模型能力优化,减少小模型运行对算力与显存的占用,从而自然压缩成本。预计未来半年至一年,每百万Token价格再降10倍具备较高可行性。这也从侧面反映出算力行业的激烈竞争:每6-12个月,相关价格便可能腰斩甚至出现更大幅度下调。这种竞争对终端用户、普通民众及AI应用开发企业而言实为利好,将倒逼所有AI Infra企业深耕技术、优化服务。

03

算力、算法、数据「齐驱」,

百倍Token调用增长将成为现实

李东东(主持人):2025年算力市场涌现了政策支持、国产芯片突破、算力互联落地等关键事件,这些动态正深刻影响行业走向。想请两位嘉宾结合今年的产业实践,聊聊哪些事件最具里程碑意义,以及它们将如何塑造2026年算力产业的发展格局?

师天麾:在我看来,DeepSeek的爆火是今年AI领域最关键的事件,它彻底重塑了大众与行业对AI的认知。我印象尤为深刻的是,今年年初我母亲也曾使用DeepSeek,借助其生成藏头诗用于向亲友、同事发送新春祝福,还称赞其效果极佳。事实上,前一两年的模型也具备类似能力,并非如今的模型性能有了颠覆性提升,核心差异在于此前大众对AI的关注度不足、未形成应用意识。

DeepSeek的崛起,推动AI从行业层面走向全民应用:无论是普通民众、个人用户,还是国家与政府层面,都开始高度重视AI技术并主动实践。同时,它也带动了AI Infra领域的爆发。其在海外的走红,核心原因在于海外市场意外发现,DeepSeek仅用少量硬件设备、以较低成本就训练出了高性能模型,这背后既得益于模型架构的优化,更离不开AI Infra软件的支撑。今年春节后,行业内甚至出现了“DeepSeek开源周”,其开源了大量Infra训练与推理相关软件,让业界普遍意识到Infra软件的核心价值。

对比去年,我们还需向投资人科普AI Infra的定义;而今年,投资人已主动洞察到其重要性,纷纷寻求合作与投资机会。此外,国产化进程的推进(如摩尔线程上市)、超节点技术的发展,也让MaaS大规模并行优化的价值愈发凸显。通过这类大规模优化,AI应用成本得以大幅降低,这些都是今年AI领域的关键突破。

徐永昌:我认同师博士刚才提及的几个行业里程碑,我归纳为三大核心维度。

第一是模型领域,DeepSeek-R1的开源不仅引领了全球AI开源格局,更坚定了国内外各大模型企业加大基座模型研发的决心。我们与MiniMax、智谱等企业交流后了解到,其管理层认为无需过度纠结于用户获取成本,若基座模型足够优秀,如DeepSeek-R1,有望在短时间内实现数亿用户的突破。这给行业同行带来关键启示:基座模型的核心能力是模型企业的立身之本。

第二是算力领域的突破。过去,国内算力领域长期跟随英伟达的技术路线,从A100、H100到GB200均是如此。令人欣喜的是,今年华为、阿里、百度、曙光等企业纷纷推出国产化超节点方案,标志着国内在超节点领域已逐步追平国际水平。值得关注的是,英伟达GB200采用冷板式液冷方案,GPU满载温度达85℃,而国产GPU若与全新浸没式液冷方案结合,可将GPU温度从85℃降至65℃,故障率也随之从全年3%降至1%以下。这种软硬件的协同优化,有望使国内超节点在算力维度实现突破,甚至在明年英伟达Rubin架构超节点推出时具备反超潜力。

第三是数据领域的里程碑。今年多款AI眼镜产品陆续发布,涵盖单目绿色AR屏、双目全彩等多种形态,小米、阿里等大厂的入局更将催生数据维度的爆发。此前,通过手机移动采集现实世界数据存在诸多局限,如续航不足、操作不便等,而低功耗可全天佩戴的AI眼镜,能够实时抓取物理世界数据,这将极大加速世界模型的训练进程。

综上,AI“三驾马车”(模型、算力、数据)各自诞生了标志性的里程碑事件。值得关注的是,当前AI眼镜虽仍存在诸多技术瓶颈,但已有突破性进展值得期待:国内有家创业企业,其创始人是Google Glass第一代发明人,该企业正研发定价千元以内的双目全彩AI眼镜。这款产品可适配近视人群,能以不足千元的成本提供带近视功能的双目全彩AR眼镜方案。

若该产品或同类产品能快速推向市场,并在未来两三年内实现数亿副的普及规模,将引发Token消耗的爆发式增长,届时每个人日均采集或消耗的Token量,有望从当前的约1万提升至十万甚至几十万量级。当数亿用户以日均几十万Token的规模消耗时,结合现有Token消耗基数,整体规模或将实现百倍乃至更高倍数的增长。让我们共同期待2026年这一行业图景的实现!

李东东(主持人):最后请两位嘉宾分别用一句话来总结一下2025年的算力市场,并用一句话或一个关键词对2026年做一个展望或预测。

师天麾:2025年,国内AI从训练走向推理有非常明显的转变,并且催生了MaaS市场进展迅速。明年,推理市场以及国产化的进一步增长趋势是势不可挡的。

徐永昌:若用一个词总结2025年的AI行业,我认为是“推理”。无论是梁文锋团队推出的DeepSeek-R1推理大模型,还是行业对AI推理应用的广泛探索,都印证了这一核心趋势。

站在个人视角,我判断2026年将聚焦两大关键词。其一为“国产”:2026年更多大厂及央国企将加速转向国产芯片。其二为“液冷”:发改委明确要求新建智算中心PUE需低于1.3,而当前多数国产芯片采用风冷方案的PUE高达1.5,液冷技术成为必然选择。因此,2026年或将成为国产芯片与液冷技术爆发的元年。


nginx