当 AI Agent 被拉进多个群:会话隔离与 Agent 隔离的生死线

企业级 Agent Runtime 接入 IM 多群场景下的安全架构设计

把一个 AI Agent 拉进钉钉的多个群,是一件非常容易的事情——群管理员点一下"添加机器人"就完成了。但这也是一件极其危险的事情——如果 Agent Runtime 没有做好隔离,你可能正在制造一个企业级的安全事故。

想象这个场景:你的 AI Agent 同时服务于"核心技术架构群"和"外部合作伙伴群"。有人在合作伙伴群里问了一个问题,Agent 的回答中不小心带出了它在架构群里学到的技术方案细节。信息就这样泄露了,而且没有任何人会收到告警。

这不是假设。这是没有隔离的 Agent Runtime 的默认行为。

[Read More]

AI 时代的企业数字化 = 工作 Agent 化 + 知识 AI Ready 化 + 软件 CLI 化

一个简洁的公式,三个可落地的方向,重新定义企业的 AI 转型路径

过去两年,几乎每家企业都在谈"拥抱 AI"。但你去看看大多数企业的 AI 落地项目,会发现一个尴尬的现实:聊天机器人做了一堆,效率提升约等于零。 问题出在哪?不是 AI 不够强,而是企业的数字化基座根本不是为 AI 设计的。

我越来越确信一个判断:AI 时代的企业数字化,可以浓缩成一个公式——

企业数字化 = 工作 Agent 化 + 知识 AI Ready 化 + 软件 CLI 化

这三项缺一不可,而且顺序很重要。

[Read More]

Agent 执行耗时任务时如何主动汇报进度?四种方案的实战选型

从后台进程到多 Agent 协作,为不同场景选择最合适的进度上报机制

你让 AI Agent 帮你跑一个需要 30 分钟的数据迁移脚本,然后就没了下文——它在干嘛?卡住了?还是已经跑完了?你不知道,因为 Agent 只会在任务彻底完成或彻底失败时才告诉你结果。

这是 Agent 系统中一个普遍的痛点:耗时任务的进度黑洞。用户发出指令后陷入等待,没有进度条,没有中间反馈,只有最终的成功或失败。在 OpenClaw 的实际使用中,我总结了四种适用于不同场景的进度上报方案,每种都有其最佳适用场景。

[Read More]

OpenClaw 一天发布两个版本,打破了人月神话法则吗?

从 Brooks 定律的正反两面,看 AI Agent 时代的软件工程新范式

OpenClaw 一天发布了两个版本。消息传开后,有人兴奋地说"AI 时代人月神话终于被打破了",也有人冷静地问"这真的算打破了吗?"

这个问题值得认真回答。因为它触及的不是某个产品的发布节奏,而是软件工程最根本的规律之一——加人到底能不能加速交付? 在 AI Agent 成为新型"开发者"的今天,这条规律是否需要被重新审视?

[Read More]

Workspace + Git + Agent:AI 时代的工作操作系统

Everything is file——当所有 AI 工件都是文件,Workspace 的结构设计就是你的竞争力

过去一年,我越来越确信一个判断:AI 时代真正的工作操作系统,不是某个 App,不是某个平台,而是 Workspace + Git + Agent 这个三位一体的组合。

为什么?因为 AI Agent 的一切——输入、输出、系统提示词、上下文、执行过程、临时生成的代码、图片、文档,甚至应用程序本身——本质上都是文件。既然 everything is file,那么管理这些文件的方式,就决定了你驾驭 AI 的效率和上限。

[Read More]

Attention is All You Need:专注力才是人和大模型共同的底层算法

Google 那篇论文改变了 AI,但它揭示的道理对人同样成立

2017 年,Google 发表了那篇改变世界的论文——“Attention Is All You Need”。八位作者可能没想到,这篇论文不仅催生了 GPT、Claude、Gemini 等一系列大模型,也在某种意义上揭示了一个关于人类自身的深刻隐喻:不论是大模型还是人,决定产出质量的底层机制都是注意力(Attention)。

专注力是人做事质量和效率的基础。这不是心灵鸡汤,而是一个可以从技术原理出发、严肃论证的观点。

[Read More]

让 Agent 更准确地完成任务,关键不在模型,而在环境

干净环境、充足上下文、探索空间、工具能力——Agent 质量的四根支柱

做了一年多 AI Agent 开发,我逐渐形成了一个核心观点:让 Agent 更准确更高质量地完成任务,最关键的不是换一个更强的模型,而是给它一个正确的执行环境。

具体来说,这个"正确的执行环境"包含四个要素:干净的执行环境、充足且正确的上下文、允许自我探索的空间、以及学会使用工具解决问题的能力。

[Read More]

以前人给 AI 造工具,现在 AI 自己造工具

从声明式工具调用到程序化工具调用(PTC),AI Agent 的工具范式正在发生根本性转变

做 AI Agent 开发这一年多来,我经历了一个认知上的转变:以前的默认思路是"我要给 AI 准备好一切工具,让它去调用";而现在,越来越多的场景让我意识到——AI 为了完成任务,会自己造工具。这不是一个隐喻,而是一个正在发生的技术事实。

[Read More]

大模型 Tool Use 准确率可达 99%,但前提是工具足够简单

为什么平台服务 Tools 化的最佳实践是写 CLI

最近在做 Agent 开发时,我发现一个有意思的现象:大模型调用工具的准确率其实可以非常高,达到 99% 甚至更高——但这有一个关键前提:工具本身要足够简单。这也解释了一个行业趋势:越来越多的平台服务在做 Tools 化时,选择的路径是写 CLI,而不是暴露复杂的 SDK 或 REST API。

[Read More]

Agent 设计最佳实践:Memory

从每日日志到向量检索,深入解析 OpenClaw 如何让 AI 真正「记住」你

想象这样一个场景:你花了半小时向 AI 助手解释你的项目架构、编码偏好和团队规范,得到了一次满意的协作体验。第二天再打开对话——它全忘了。你又得从头来一遍。这不是 AI 不够聪明的问题,而是记忆架构缺失的问题。OpenClaw 的 Memory 系统试图从根本上解决这个痛点:让 AI Agent 拥有持久、可检索、可自维护的记忆能力。

[Read More]