当世界AI巨头纷纷闭源,中国开源模型的路到底要怎么走?
“继续坚持开源开放,激发开发者与合作伙伴的创造力,让模型应成为千行百业创新的‘水电煤’。”魔搭社区发起人、阿里云CTO周靖人给出的答案,让我们看到了开源社区带来的技术应用驱动力。
▲魔搭社区发起人、阿里云CTO周靖人
上周末去了趟南京,参加了魔搭开发者大会,听完一整天的分享,说实话,有点感慨。
三年前(2022年11月),魔搭刚成立的时候,很多人还搞不清楚“模型即服务”是啥意思。首届开发者大会,是在2025年6月的北京举办,笔者有幸在场。虽然当时就在感慨:搞开源这件事还得是大厂,但没想到发展速度这么快。仅仅9个月的时间,用户增长千万,从1600万增长到2500万;开源模型数量从7万增长至17万,新增10万个开源模型;MCP广场已上线超9200个MCP Server……
当然,我们今天不是要罗列数字,而是想聊聊大会上看到的几个有意思的变化,以及这些变化背后折射出的底层逻辑。
开源的本质,让底层能力变成“公共基础设施”
先说一个基本判断,为什么中国大模型大多选择开源,而国外一些模型却倾向于闭源?以全球知名开源社区hugging Face为例,榜单前10名全都是中国的开源模型!
一直以来,开源与闭源的路线之争,都是热点话题。抛开地缘政治原因,在技术选择上,中国大模型属于后发选手,而开源能让技术快速迭代,弥补单点技术的不足。另外,从市场需求来看,中国是应用型市场,更倾向于将大模型与具体的行业和场景结合,开源可以全面降低客户接入门槛,快速壮大整个生态。所以,从某种角度来说,中国走开源路线,是大模型发展的必然结果。
要知道,做基础大模型这件事,并不是一件容易的事儿。门槛到底有多高?数据、算力、人才,哪一个都是吞金兽。前期试错成本巨大,小公司和个体开发者根本玩不起。这时,开源就凸显了它存在的价值。
以魔搭社区为例,有大厂做技术兜底,可以真正把重投入的资源和底层能力,变成行业的基础设施。开发者不用从零开始,可以直接站在开源模型的肩膀上做微调、做二次开发。
所以,模型生态发展快,自然是水到渠成的一件事。魔搭社区不仅提供了千问(Qwen)系列模型,DeepSeek、智谱、MiniMax、阶跃星辰、Mistral等国内外前沿模型均在上面开源。大家在架构设计和训练策略上各有侧重,互相借鉴、交叉验证,避免了重复造轮子。开源让诸多技术细节透明化,也让整个行业的技术迭代周期被大幅缩短。
从产业全局来看,现在绝大多数垂直行业模型和端侧AI应用,都是基于开源底座构建。基于这个大的开源底座,不仅可以推动算法演进,还带动了上下游工具链的完善,包括数据处理、评测框架、推理加速,进而形成一个完整的生态。
可以说,没有开源,大模型技术很难这么快速地走向产业落地。
MaaS从概念到共识,魔搭做对了三件事
三年后的今天,我们回过头再来看,“模型即服务”正在梦想照进现实。
2022年,阿里第一次提出MaaS(模型即服务)的时候,很多人还觉得这是个概念炒作。现在回头看,这个判断确实有前瞻性。
魔搭从一开始就坚持“开放、中立、非盈利”的原则。这三年来国内外主流的前沿模型都上了魔搭。
但真正有意思的,是魔搭围绕底层AI资产的“模型”生态和作为产业创新主体的“开发者”这两个核心锚点,做的一系列事情。
第一件事:让模型生态“看得见”
魔搭上有个功能叫“模型宇宙”,挺有意思。
你可能会问,模型就模型,搞什么宇宙?但如果你知道一个数据,就知道这东西的价值了。
在整个魔搭生态里,千问扮演的是基石角色,12亿次的累计下载量,印证了千问在全球开源技术栈中的地位。Qwen官方开源的模型是400多个,从0.5B到极致大参数的语言模型,涵盖视觉、语音的多模态,再到垂直领域的代码模型。但在魔搭上,开发者基于Qwen做的衍生模型已经超过34000个。这些模型之间的血缘关系,其实就是开源生态演进路径的真实记录。模型宇宙把这些关联和衍生层级可视化出来,开发者可以更直观地理解技术脉络,做模型选型和技术溯源的时候,效率大幅提升。
阿里明确承诺,未来更多参数规模更大、架构更先进、模型效果更好的前沿模型将持续在社区开源。最终目标是,让大模型成为全社会触手可及的公共资源。
第二件事:为Agent时代铺路
大模型正在从静态的文本生成,向具备行动能力的智能体演进。这意味着模型必须具备动态获取外部数据、调用工程工具的能力。
在这方面,魔搭做了两件事:
1、建了MCP广场。基于开放的“模型上下文协议”,目前已经汇聚了超过9200个MCP Server。魔搭还提供免费的MCP服务化托管,一键部署、开箱即用。开放不到一年,托管的MCP服务累计调用超过16亿次。
2、推出了“Skills中心”。和底层的MCP不同,Skill是对场景化技能的封装,开发者可以把复杂技能快速集成到模型工作流中,大幅提升Agent应用的组装效率。
这两件事的逻辑很清楚:模型能力再强,如果不能跟真实世界交互,那也只是个“花瓶”。
第三件事:算力普惠+开放API
算力成本是大模型研发的最大门槛。魔搭深度对接阿里云的IaaS和MaaS,把昂贵的算力变成普惠的公共服务。
现在魔搭上超过4万个开源模型,都可以通过免费API-Inference直接调用。
更关键的是,魔搭今天正式全面开放了核心OpenAPI。开发者可以通过标准接口,直接获取模型、MCP协议、创空间、数据集、用户信息这五大维度的数据。
这步棋很关键。对于高度自动化的智能体来说,传统图形界面存在天然的执行壁垒,API接口提供了更原生的机器间交互通道。外部Agent可以基于代码指令,自主拉取模型、调度工具、自动化管理AI流水线。
AI人才进化背后,是开发者生态重构
说完模型服务和生态,再来聊聊魔搭社区的全面进化,对于开发者的影响是什么?
这次大会上,魔搭有一个很个性化的发布,叫做AI开源人才全息画像。
传统的简历是静态的,而一个人的工程实践能力和开源贡献度,其实是动态的、多维的。全息画像自动聚合了开发者在社区内的全生命周期行为:模型的微调训练、MCP与数据集的贡献、前端应用的发布、学术论文的沉淀……这其实是在帮助开发者完成从“静态简历”向“数字科研身份”的范式跨越。
魔搭社区为什么要发布这个?数据可以说明问题!调研显示,懂AI的工程人才普遍有15%-50%的薪酬溢价;超过82%的开发者通过在魔搭社区的活跃贡献,成功获取了优质工作机会、早期项目融资或直接商业变现。
还有一个有意思的数据:社区中高达95%的创新应用,是由“超级个体”独立贡献的。这说明,AI能力的提升,正在催生OPC(一人公司)的爆发。以往需要庞大团队才能完成的工作,现在可以被极大程度地自动化。开源社区成了这些“超级个体”低成本试错、高效孵化创意的最 佳场域。
具身智能的觉醒
如果说上面的布局还停留在数字世界,那这次大会上发布的另一件事,则让我真切感受到——AI正在撞开物理世界的大门。
2025年,被业界公认为具身智能真正觉醒的元年。由魔搭社区、CCF智能机器人专委会、工信部装备数字孪生技术重点实验室、Lumina具身智能社区等十几家机构联合发起的《EAI-100 具身智能领域2025年度百项代表性成果与人物》榜单正式发布。
这份榜单很有意思。它不只是评奖,而是用“真实影响、长期价值与方向性贡献”的标准,遴选出100项在2025年产生实质性推动作用的成果与人物:
EAI Pioneer 20:20位在理论、技术、应用与生态全方位发挥“开路者”作用的顶尖学者、创业者与科技巨头领军人。
EAI Next 20:20位平均年龄不到28岁的学术新锐,代表着具身智能不可限量的明天。
六大项目榜单:涵盖年度十大突破、十大开源、十大数据集、十大教学、十大Demo以及十大落地典范。
这份榜单揭示了一个清晰的行业共识:开源,正在成为引爆物理世界的火种。同步首发的《EAI-100 具身智能领域2025年度百项代表性成果与人物》白皮书,不仅浓缩了100项上榜成果的核心技术解析,更深度剖析了VLA(视觉-语言-动作模型)、世界模型、灵巧操作等前沿技术的演进路线,为学术界、工程实践者与产业投资人提供了一份极具参考价值的“具身智能落地范式指南”。
从本土到全球,中国开源社区正在与世界接轨
魔搭社区的不断进化,让我们看到了中国开源的力量。但有一点需要明确,魔搭社区不只服务于中国开发者,而是正在走向世界。
有一个值得关注的数据是,在过去24个月的时间里,魔搭社区的海外开发者体量实现了10倍增长。海外数字增长背后,是中国开源模型能力的爆发带来的全球关注,也是持续投入的结果。
针对跨国网络路由、多元账号体系、差异化的开发协同习惯,魔搭在南京开发者大会上正式上线了“国际站(ModelScope.AI)”。这不只是语言版本的切换,而是全栈服务链路的升级。
国际站的战略意图很明显,连接中国开源模型与全球极客社区,助力中国本土的大模型技术和衍生应用走向世界。
写在最后
展望未来,魔搭社区的愿景是——全面跨越实验室阶段,进入千行百业的深水区。当大模型走过百模大战、跨越了Agent元年,实现了具身智能的觉醒,大模型带来的产业升级机遇,无疑是百年一遇的。而开源,正是打破底层技术垄断的关键。
“魔搭是大家的,需要大家一起来共同搭建。” 周靖人的这句话听起来像套话,但如果你真的了解这三年来这个社区的成长轨迹,就会深刻地感受到——一场由开源AI驱动的生产力革命正在拉开序幕。