目录:
2025 年以来,AI 应用层出现了一波令人眼花缭乱的平台:Manus 主打通用 AI Agent,Lovable 专注 AI 驱动的应用生成,Dify 提供 LLM 应用编排框架,Coze(扣子)让用户可以可视化地构建 AI Bot。它们看起来各有侧重,产品形态也不尽相同,但如果你退后一步观察,会发现它们在做的事情本质上是一样的——为大模型开发 Skills。
什么是大模型的 Skills
要理解这个判断,先要理解"Skill"在大模型语境下意味着什么。
大模型本身是一个通用的推理引擎。它拥有海量的知识和一定的推理能力,但面对具体任务时,它需要结构化的执行路径——知道该调用什么工具、按什么顺序执行步骤、如何处理中间结果、怎么与外部系统交互。这些结构化的执行路径,就是 Skill。
举几个例子:
- 在 Coze 上构建一个"帮我总结会议纪要"的 Bot,本质上是定义了一个 Skill:接收音频/文本 → 提取关键信息 → 按模板生成摘要 → 输出结果
- 在 Dify 上编排一个 RAG 工作流,本质上是定义了一个 Skill:接收用户问题 → 检索知识库 → 组装上下文 → 生成回答
- 在 Lovable 上描述一个应用需求,本质上是调用了一个 Skill:理解需求描述 → 选择技术栈 → 生成前后端代码 → 部署应用
- 在 Manus 上让 Agent 完成一个复杂任务,本质上是编排多个 Skills:分解任务 → 调用浏览器/代码执行/文件操作等工具 → 协调子任务 → 汇总结果
无论产品形态如何包装,这些平台的核心价值都是降低了"为大模型定义和注册 Skill"的门槛。
四个平台,同一个本质
让我们具体看看这四个平台的定位和它们的共性:
| 平台 | 表面定位 | 本质 |
|---|---|---|
| Manus | 通用 AI Agent | 通过预置和用户自定义的工具链,为大模型提供完成复杂任务的 Skill 集合 |
| Lovable | AI 应用生成器 | 将"从自然语言到可运行应用"封装成一个高度集成的 Skill |
| Dify | LLM 应用开发平台 | 提供可视化的 Skill 编排界面,让用户通过拖拽定义工作流 |
| Coze | AI Bot 构建平台 | 提供插件市场和工作流编辑器,让用户组合和创建 Skills |
它们的差异在于面向的用户群体和交互方式的设计,但底层逻辑是一致的:让更多人能够为大模型创造更多的 Skill,从而扩展大模型的能力边界。
这就像是移动互联网早期的 App Store、小程序平台和各种 Low-Code 工具——它们的本质都是让更多开发者为手机这个"通用计算平台"创造应用。今天,这些 AI 平台在做完全类似的事情,只不过"通用计算平台"变成了"大模型"。
大模型的自我进化:从 Skills 到强化学习
这里有一个更深层的趋势值得关注:大模型会通过这些 Skills 的使用反馈不断进化。
这不是科幻式的想象,而是已经在发生的工程实践。当数以百万计的用户在这些平台上使用各种 Skill 完成任务时,产生了大量的交互数据:
- 哪些 Skill 编排方式成功率高
- 用户在什么环节需要人工介入
- 哪些任务分解策略更有效
- 什么样的提示词能获得更好的结果
这些数据本质上就是强化学习的信号。大模型可以从中学到:
- 任务理解能力的提升:见过足够多的用户意图表达后,模型能更准确地理解模糊的、不完整的需求描述
- 工具调用策略的优化:通过大量的成功/失败反馈,模型学会在什么场景下该用什么工具、按什么顺序调用
- 错误恢复能力的增强:遇到过足够多的异常情况后,模型能更好地处理边界条件和意外状况
- 多步骤规划能力的进化:复杂任务的完成记录帮助模型学会更有效的任务分解和执行规划
这形成了一个正循环:
用户使用 Skills 完成任务
↓
产生交互数据和反馈信号
↓
大模型通过强化学习进化
↓
Skill 执行效果提升
↓
用户体验改善,更多用户使用
↓
产生更多高质量数据
↓
(循环继续)
这就是为什么用户和大模型的交互会变得越来越简单。不是因为平台的 UI 做得更好了(虽然这也重要),而是因为大模型本身在变强——它越来越能理解你的意图,越来越擅长规划执行步骤,越来越能在出错时自我修正。
护城河在哪里
既然这些平台本质上都在做同一件事,那它们的竞争壁垒在哪里?
不在技术本身。
底层的大模型能力在快速趋同。今天你用 GPT-4,明天可以切换到 Claude,后天可能是开源模型。Skill 的编排框架、工具调用协议(如 MCP)、Agent 架构模式——这些技术组件都在快速标准化和开源化。任何一个有能力的团队都可以在几周内搭建出类似的技术栈。
真正的护城河在三个地方:
1. 生态(Ecosystem)
这里的生态不只是"有多少插件",而是一个自我强化的网络效应:
- Skill 创作者:有多少人在平台上创建高质量的 Skill/插件/工作流
- 使用者反馈:这些 Skill 被多少人使用过,积累了多少评价和改进建议
- 跨 Skill 的组合效应:不同 Skill 之间能否方便地组合,形成更强大的能力
Coze 的插件市场、Dify 的模板市场、Manus 的工具生态——谁能率先形成一个繁荣的 Skill 生态,谁就拥有了竞争对手难以复制的优势。这就像 iOS 和 Android 的 App 生态一样,一旦形成规模,迁移成本极高。
2. 核心用户规模(Core User Scale)
这里的"核心用户"不是泛泛的注册用户数,而是指那些深度使用并持续创造价值的用户:
- 在平台上构建了大量 Skill 并持续维护的开发者
- 将平台深度集成到工作流程中的企业用户
- 活跃在社区中分享经验和解决方案的布道者
核心用户的规模决定了平台的内容产出速度、问题解决能力和创新密度。100 个深度用户比 10000 个浅尝辄止的注册用户更有价值。
3. 沉淀下来的数据(Accumulated Data)
这是最容易被忽视但可能是最重要的护城河。
用户在平台上的每一次交互都在产生数据:
- 任务模式数据:什么类型的任务最常见,用户通常怎么描述需求
- Skill 效果数据:哪些 Skill 组合在什么场景下效果最好
- 纠错数据:用户在什么环节介入修正,模型犯了什么类型的错误
- 领域知识数据:不同行业、不同场景下的最佳实践
这些数据是喂给大模型进行强化学习的燃料。拥有更多高质量数据的平台,能让它所依赖的大模型(或微调模型)在特定场景下表现更好,从而吸引更多用户,产生更多数据——又是一个正循环。
这意味着什么
如果这个判断是正确的,那么有几个推论值得思考:
对创业者来说,不要把精力花在技术差异化上。底层模型能力会趋同,框架和工具会开源。应该把精力放在:找到一个垂直场景,尽快积累核心用户和数据飞轮。
对大模型公司来说,这些平台既是客户也是竞争者。它们是大模型能力的放大器,但也在逐步掌握用户关系和数据。未来谁拥有用户交互数据,谁就拥有模型进化的话语权。这也是为什么 OpenAI 自己做 GPTs 和 Operator,Anthropic 推出 Claude Code 和 MCP 协议——大模型公司不甘心只做底层 API 供应商。
对用户来说,不必纠结于选择哪个平台。短期看功能和体验,长期看生态和数据积累。最重要的是培养自己"为大模型定义 Skill"的能力——这种能力是跨平台的,无论底层工具怎么变,你对任务分解、工具编排、提示词设计的理解都能迁移。
对整个行业来说,我们正在见证一个类似"操作系统 + 应用商店"的格局在 AI 领域重演。大模型是操作系统,Skills 是应用,这些平台是应用商店和开发工具。历史不会简单重复,但会押着相似的韵脚。
结语
Manus、Lovable、Dify、Coze——名字不同,愿景各异,但本质上它们都在做同一件事:降低为大模型创造 Skills 的门槛,然后通过用户数据的积累推动大模型的进化。
最终的赢家不是技术最先进的那个,而是生态最繁荣、核心用户最多、数据积累最深厚的那个。这个判断不新鲜——互联网时代的每一次平台竞争都遵循这个逻辑。但在 AI 时代,它有一个新的维度:沉淀下来的数据不仅服务于平台本身,还直接驱动了底层大模型的进化。数据的价值被放大了一个数量级。
这是一场关于生态和数据的长跑,而不是一场关于技术的短跑。