重回快车道的阿里云,要继续做两件事

通往超级人工智能的路上,阿里云有两大明确的战略路径:一是通义大模型坚定开源开放路线,打造AI时代的安卓;二是构建超级AI云,为全球提供智能算力文 | 吴俊宇 编辑 | 谢丽容2...

重回快车道的阿里云,要继续做两件事



通往超级人工智能的路上 ,阿里云有两大明确的战略路径:一是通义大模型坚定开源开放路线,打造AI时代的安卓;二是构建超级AI云,为全球提供智能算力



文 | 吴俊宇

编辑 | 谢丽容

2025年 ,阿里云摆脱了过去三年的低迷期。

2025上半年,阿里云营收635亿元,同比增长21.8%。这已经追平了国际三大云厂商(亚马逊AWS、微软Azure 、谷歌云GCP)的增长速度 。

重回快车道的阿里云 ,下一步要驶向何处?9月25日,阿里集团CEO(首席执行官)、阿里云董事长兼CEO吴泳铭在2025年云栖大会的演讲中,首度阐述了他对AI(人工智能)的理解 ,以及阿里云的AI战略。

吴泳铭提到,最近的三年,人们已经清晰地感受到AI的速度。Tokens(词元 ,大模型算力计量单位 ,一个Token可以是单词、标点 、数字、符号等)的消耗速度两三个月就翻一番 。最近一年,全球AI行业投资总额已经超过4000亿美元,未来五年全球AI的累计投入将超过4万亿美元 ,这是历史上最大的算力和研发投入,必然将会加速催生更强大的模型,加速AI应用的渗透。

他的观点是 ,实现AGI(通用人工智能,与人类智能程度相当的AI)已是确定性事件,但这只是起点。终极方向是发展出能自我迭代、全面超越人类的ASI(超级人工智能)……只有让AI与真实世界持续互动 ,获取更全面 、更真实、更实时的数据,才能更好地理解和模拟世界,发现超越人类认知的深层规律 ,创造出比人更强大的智能能力 。

吴泳铭进一步解释,在通往ASI的路上,阿里云有两大明确的战略路径。

其一 ,通义大模型坚定开源开放路线 ,致力打造“AI时代的安卓”。

其二,构建作为“下一代计算机”的超级AI云,为全球提供智能算力网络 。

阿里云和中国乃至全球其他云厂商的一个重要战略差异 ,即“全栈AI ”,也就是覆盖芯片、算力 、模型、应用等各个技术栈的能力。

一位数字化企业高管对我们表示,这次云栖大会 ,呈现了阿里云的“全栈AI”能力。国内其他企业,或许擅长算力、芯片 、应用 、模型的一项或几项能力,或许也拥有全部能力 ,但很少有企业能把这些能力真正组合成一个技术栈,并完整提供给客户 。在全球市场,目前只有谷歌、亚马逊形成了类似布局 。

吴泳铭表示 ,阿里正积极推进3800亿元的AI基础设施建设计划,并将会持续追加更大的投入。当天,阿里集团还宣布与英伟达开展 Physical AI(物理人工智能)合作 ,合作覆盖了Physical AI实践的各个方面 ,包括数据的合成处理,模型的训练,环境仿真强化学习以及模型验证测试等。

清晰的AI发展路线 ,明确的战略和巨大投入,以及业绩增长的支撑,强化了资本市场对阿里未来业绩持续增长的预期 。

云栖大会当日 ,阿里集团(9988.HK)港股收盘价174港元,大幅上涨9.16%,阿里港股总市值3.241万亿港元。次日 ,阿里(NYSE: BABA)纽交所收盘价176美元,大幅上涨8.19%,总市值4206亿美元。

重回快车道的阿里云	,要继续做两件事

重回快车道的阿里云,要继续做两件事

模型生态要领先

吴泳铭的一个重要判断是,大模型是下一代的操作系统 。大模型代表的技术平台将会替代现在OS(操作系统)的地位 ,成为下一代的操作系统。未来 ,几乎所有链接真实世界的工具接口都将与大模型进行链接。

基于这个判断,阿里云做了一个战略选择:通义千问开源开放,打造AI时代的安卓 。在大模型时代 ,开源模型创造的价值和能渗透的场景,远远大于闭源模型。

简单说,阿里自研的通义系列大模型要像安卓一样 ,坚持开源开放。通过开源开放的方式,让更多企业客户、开发者使用 。

我们了解到,阿里管理层对阿里通义系列大模型的要求是——必须参与全球竞争 ,技术指标要领先,商业落地也要领先。

重回快车道的阿里云,要继续做两件事

美国加州大学伯克利分校创办的LMArena开放平台长期对全球大模型进行性能测试 ,并更新Chatbot Arena Leaderboard(大模型竞技排行榜)。截至9月24日,阿里的Qwen3-Max-Preview的性能基准测试位居全球第三,仅次于谷歌的Gemini 2.5 Pro ,Anthropic的Claude Opus 4系列 ,OpenAI的GPT-5系列 。

通义不只拥有旗舰模型,还有一系列模型家族 。目前,阿里通义开源了300余个模型(包括大语言模型通义千问Qwen 、视觉模型通义万相Wan等) ,覆盖不同6亿-1万亿参数等不同尺寸,以及语言、编程、图像 、语音、视频等不同模态。

重回快车道的阿里云,要继续做两件事

开源模型任何人都能下载、部署 、使用。它们像种子 ,会不断散播并生根发芽,并被全球开发者二次训练或部署 。截至9月24日,通义全球下载量突破6亿次 ,全球衍生模型17万个,有超100万客户接入了通义大模型。

和阿里通义系列模型定位接近的是Meta的Llama。Meta今年4月末在LlamaCon开发者大会披露,Llama全球下载量12亿次 ,衍生模型数万个 。目前,Qwen衍生模型数量超过Llama。Llama作为美国模型,语言、文化天然适合契合全球最大的英语开发者群体 ,下载量容易更高。Qwen作为中国模型 ,能和Llama打成互有胜负,这侧面证明了其技术实力 。

坚持开源,这让阿里的通义系列模型在全球逐步取得了更大的技术影响力。

今年9月 ,全球最大云厂商亚马逊AWS甚至在它的模型平台Bedrock,上架了阿里Qwen3(通义千问开源版)系列四款模型。过去云计算厂商之间,通常只会主推自己的模型 ,几乎不会上架同行的模型,但亚马逊AWS打破了这个惯例 。

一位亚马逊AWS人士曾对我们表示,“Choice Matters”(选择大于一切) ,这是亚马逊AWS在大模型竞争中,长期坚持的战略。Bedrock模型平台中立开放。它的标准是,只要模型够好、客户有需要 ,就立刻上架 。这可以为开发者提供多种选择(文章详见《亚马逊云科技为何上架Qwen和DeepSeek的最新模型》) 。

重回快车道的阿里云,要继续做两件事

Qwen目前正在被全球开发者使用。被消耗了多少Tokens,可以侧面证明一款模型的受欢迎程度。OpenRouter是全球大模型API(应用程序接口)聚合平台 ,集成了全球主流模型 ,被全球开发者调用 。截至9月23日,Qwen系列模型市场份额是4.0%,位居全球第六。

在中国市场 ,通义的调用量同样保持领先。国际市场调研机构弗若斯特沙利文(Frost&Sullivan)报告显示,2025上半年中国企业级大模型日均调用量,阿里通义占比17.7% ,位居第一 。

阿里云一位负责人在云栖大会后的群访环节对我们表示,这还只包括阿里云上通过调用API使用Tokens的结果。阿里的通义千问 、通义万相等都是开源模型,很多企业内部部署的开源版通义大模型的调用情况无法被统计到。通义大模型 ,现在事实上在中国企业级市场和全球开发者中的渗透率,都是位居首位的 。

重回快车道的阿里云,要继续做两件事

AI科学家以90后甚至95后为主 ,他们年轻且思想活跃。管理这群“最聪明的大脑 ”并不容易。通义实验室团队为何能不断推出被开发者广泛使用的模型?它是如何激发团队创造力的?

阿里云智能CTO(首席技术官)、通义实验室负责人周靖人解释,模型之间的竞争,也是系统的竞争 。企业需要加快模型迭代和创新速度。通义团队所有技术工作 ,直接评价体系就是模型能力。技术路径、技术指标是最重要的 。

周靖人对我们表示 ,通义实验室的氛围自由开放,鼓励团队成员去创新 。今天大模型的发展是循序渐进的,而不是憋大招的逻辑。通义实验室会按照工作优先级进行一系列规划 ,各个参数 、领域的模型齐头并进。通义实验室希望在单项做到极致,不管是代码还是视觉理解等领域 。如果单项做不到极致,基础模型能力的提升会遇到瓶颈。

开发者的反馈 ,被放到了重中之重的位置。周靖人进一步解释,我们有一个重要的理解是,要站在开发者视角去做模型 。为什么会提供这么多模型 、参数?因为开发者的需求是多样性的。开发者在社区自主关注、评价、反馈 ,会直接反映模型的实际效果。

重回快车道的阿里云,要继续做两件事

十倍算力投入

吴泳铭的第二个重要判断是,超级AI云是下一代的计算机 。大模型是运行于AI云上新的OS。这个OS可以满足任何人的需求。每个人都将拥有几十甚至上百个Agent(智能体) 。这些Agent 24小时不间断地工作和协同 ,需要海量的计算资源。

吴泳铭进一步解释,这一切都需要充足的能源 、全栈的技术、数百万计的GPU(图像处理器)和CPU(中央处理器),协同网络、芯片 、存储、数据库高效运作 ,并且24小时处理全世界各地的需求。这需要超大规模的基础设施和全栈的技术积累 ,只有超级AI云才能够承载这样的海量需求 。未来,全世界可能只会有5个-6个超级云计算平台 。

算力,是大模型竞争的基础。算力投资规模几乎是一家公司竞争意志的直接衡量指标。过去一年 ,阿里云AI算力增长超5倍,AI存力增长4倍多 。但这些算力仍然远远不够。

因为,随着模型能力不断提升以及Agent应用爆发 ,算力需求正在以10倍甚至是100倍的速度增长。过去一年,阿里云百炼MaaS(模型服务)平台模型日均调用量增长了15倍 。

国家数据局今年8月数据显示,2024年初 ,中国日均Token消耗量为1000亿。截至今年6月底,日均Token消耗量已经突破30万亿。一年半时间增长了300多倍,这反映了中国AI应用规模的快速增长 。

一位政策研究部门人士今年7月曾对我们表示 ,相关部门正在考虑制定国家和社会的人工智能发展考核指标。其中,单位Token消耗对GDP的拉动效应、人均Token使用量 、Token使用成本占人均可支配收入比重都是重要维度。

为了满足未来算力需求,今年2月 ,阿里集团宣布未来三年投入3800亿元用于建设云和AI基础设施 ,超过去十年总和 。阿里正在积极推进这个计划。

科技公司的算力投资,通常会在资本支出数据中有所体现。通常80%以上的资本支出都被用于采购芯片、服务器、网络设备,建设数据中心 。

近一年(2024年三季度-2025年二季度) ,阿里资本支出1200亿元,同比增长227% 。这是至少近七年来的最高增速。

这个资本支出规模和亚马逊 、微软、谷歌等国际科技巨头有差距,但增速远超它们。规模在国内也处于领先梯队 。同期 ,腾讯资本支出1023亿元。我们了解到,目前国内资本支出在1000亿元以上的科技公司仅有三家,分别是阿里、腾讯 、字节跳动(文章详见《重做AI ,重估阿里》)。

重回快车道的阿里云,要继续做两件事

吴泳铭在演讲中还披露了一个重要数据——对比2022年,2032年阿里云全球数据中心能耗规模将提升10倍 。

这是什么概念?

一位数据中心行业资深人士以及一位中国头部云厂商人士同时对我们表示 ,阿里云目前在中国市场的数据中心能耗规模至少超过2GW(吉瓦,功率单位。1GW算力集群理想情况可容纳80万枚英伟达GB200旗舰芯片)。按照这个数据计算,2032年阿里全球数据中心能耗至少将提升至20GW-30GW 。

另一位数字化企业高管预测 ,2025年 ,全球科技公司,如微软 、亚马逊、OpenAI等公司的算力竞赛正在往10GW、100万卡集群的方向前进。阿里云要以十倍规模去扩建算力基础设施,从大趋势看 ,这几乎是确定的。

微软至少正在建设3个1GW以上的算力集群,总功耗至少超过3.8GW 。其中包括威斯康星至少1GW的自建集群,得克萨斯州阿比林1.8GW的集群 ,亚利桑那州凤凰城的多GW集群。上述数据中心行业资深人士对我们表示,通常1GW集群建设6个-18个月即可投入使用。

AI和半导体咨询机构SemiAnalysis今年9月在报告中指出,亚马逊也正在建设至少三个装机容量超过1GW的算力集群 ,它们将在2025年末上线 。其中最大的集群将部署近100万颗亚马逊自研的Trainium 2系列芯片 。

9月22日,英伟达宣布投资OpenAI,双方未来几年将使用数百万枚英伟达GPU ,部署至少10GW算力集群。英伟达今年3月GTC 2025大会曾披露下一代Rubin系列芯片参数——Rubin Ultra NVL576服务器搭载了576个Rubin系列GPU芯片,功耗600千瓦。照此计算,10GW的算力集群可以部署500万-1000万枚英伟达Rubin系列芯片 。

重投入必然有风险。一位阿里云管理层今年4月曾对我们表示 ,不投入就永远不可能增长。在今天 ,过度投资的风险,远远少于投资不足的风险 。另一位阿里云高管态度乐观,他认为 ,阿里有能力在巨大的市场空间中占据有利生态位,并最终挣回比投入更多的钱。

重回快车道的阿里云,要继续做两件事

提供全栈AI能力

吴泳铭在演讲中提到 ,阿里云的定位是全栈人工智能服务商,提供世界领先的智能能力和遍布全球的AI云计算网络,向全球各地提供开发者生态友好的AI服务。

“全栈AI” ,这是阿里云2025年不断强调的一个词 。

“全栈AI”意味着要把云计算从IaaS(基础设施) 、PaaS(平台软件)、MaaS(模型平台),直到应用层重做一次。因为,云计算正从CPU为核心转向GPU为核心 ,这导致算力调度方式、软硬协同方式和过去截然不同。这些不同的技术特性,使得计算 、存储、软件、网络甚至是应用架构都需要重新设计 。

阿里云的“全栈AI ”,IaaS层包括GPU资源 ,甚至是自研AI芯片;PaaS层有智算服务PAI-灵骏 、PAI-EAS推理服务等 ,AI改造后的PolarDB数据库、MaxCompute数据湖仓等数据工具,MaaS层包括Qwen系列大模型、百炼模型开发平台等工具。应用层则包括通义灵码代码辅助工具 、编程平台Qoder、数据平台瓴羊、无影云电脑等应用。

重回快车道的阿里云,要继续做两件事

阿里的“全栈AI”战略布局 图源:阿里云

中国信息化百人会执委 、阿里云智能科技研究中心主任安筱鹏今年5月曾对我们表示 ,微软 、谷歌、亚马逊的增长故事和市值表现,已经验证了“AI+云”的巨大价值 。用“全栈AI技术能力 ”去衡量,会发现国内很难找到第二家公司能在AI多个赛道——云、芯片 、模型、应用等环节 ,都处于领先梯队 。

强调“全栈AI”,不只是为了适应技术变革,也是考虑到了客户需求。因为 ,这可以满足客户不同层次、不同形态的多样需求。

以企业使用Token这个场景来说,就包括不同使用形式 。创业公司 、大型科技公司、政府金融等敏感客户的习惯都不一样。

阿里云智能集团副总裁、阿里云政企事业部产品解决方案与服务管理总经理霍嘉对我们表示,阿里云至少提供了三种方案——一是通过MaaS服务平台进行API调用;二是在公共云上在线部署(On-premise) ,很多头部科技公司会选择这种方式;三是在客户的线下环境或私有云中部署(Off-premise)。政府 、金融等敏感行业会这样做 。

阿里云为上述不同类型的客户提供了不同的Token使用方案,无论是公有云、私有云、MaaS服务,甚至是直接销售硬件等方式都可以。这让阿里云覆盖了更广泛的市场。

国际市场调研机构IDC数据2025年先后公布了五份中国AI云市场市场调研报告 。这五份报告涉及AI云市场的四个细分市场——大模型公有云市场 、智算基础设施(AI IaaS)服务市场、生成式AI基础设施(GenAl laaS)市场、AI公有云服务市场。

报告显示 ,阿里云在智算基础设施 、生成式AI基础设施 、AI公有云服务市场、AI公有云服务市场这四个细分领域位居首位。

重回快车道的阿里云,要继续做两件事

前述数字化企业高管对我们表示,阿里云吸引他的,正是能同时为客户提供芯片、算力 、模型、应用等“全栈AI能力” 。这是阿里云有别于国内其他云厂商的核心优势。

他认为 ,在国际市场,目前几乎只有谷歌、亚马逊形成了类似布局。国内科技公司,虽然部分也同时具备算力 、芯片、应用、模型业务线 ,但在服务客户时的实际情况是——擅长芯片的企业不懂模型,擅长模型的企业缺少算力 。很少有企业能把这些能力真正组合成一个技术栈,并完整提供给客户 。

一位阿里云管理层今年6月曾对我们表示 ,阿里云希望通过“全栈AI ”的能力,去满足客户不同层次 、不同形态的多样化需求,以此实现在市场变化时 ,仍然可以保持优势。

本文来自作者[孤蝶]投稿,不代表视听号立场,如若转载,请注明出处:https://stddy.com/cskp/202509-44870.html

(1)

文章推荐

发表回复

本站作者后才能评论

评论列表(4条)

  • 孤蝶
    孤蝶 2025年09月27日

    我是视听号的签约作者“孤蝶”!

  • 孤蝶
    孤蝶 2025年09月27日

    希望本篇文章《重回快车道的阿里云,要继续做两件事》能对你有所帮助!

  • 孤蝶
    孤蝶 2025年09月27日

    本站[视听号]内容主要涵盖:国足,欧洲杯,世界杯,篮球,欧冠,亚冠,英超,足球,综合体育

  • 孤蝶
    孤蝶 2025年09月27日

    本文概览:通往超级人工智能的路上,阿里云有两大明确的战略路径:一是通义大模型坚定开源开放路线,打造AI时代的安卓;二是构建超级AI云,为全球提供智能算力文 | 吴俊宇 编辑 | 谢丽容2...

    联系我们

    邮件:视听号@sina.com

    工作时间:周一至周五,9:30-18:30,节假日休息

    关注我们