文章来源:万象ai发布时间:2025-07-20 09:24:01
Hi,周末好!
我是洛小山,与你深入聊聊 AI 工程化。
这是我关于「AI Native 系列」的第二篇文章,主题是:行动闭环。
在上一篇里,我讲了什么样的产品才算得上真正的 AI Native,分享了我对 MCP 协议、AI 架构原生性和任务闭环的理解。
而这篇,我们要从“干活”这件事本身出发,聊聊一个更具体的问题:
AI 要从“会聊天”变成“能干活”,到底还差几步?
在这篇文章里,我会用我开发的 Agent 框架,
先讲相关技术实现
再横向对比目前主流的 AI Agent 架构,
最后分享我对行动闭环的三点判断。
希望这篇文章能为你提供一个不那么理论化,不那么泛泛而谈的视角,理解 Agent 调度的本质。看它是否有能力自己接住任务、干完任务、持续变好。
如果你对技术实现不感兴趣,可以快速略过到第二章。
如果有疑问,欢迎在评论区提出。
Github 地址
为规避恶意爬库,请后台私信 「框架」 获取。
使用方式:
Clone 下来之后,用 Cursor 打开,
阅读 README_FOR_CURSOR.md或者
填好 Config.json,接着运行run_web.py
最后访问http://127.0.0.1:8000/和 AI 对话。
如果遇到 Bug 请后台留言哦。
项目没有加鉴权逻辑,请务必小心,避免发到公网。
很多闭环系统在这一步处理会比较简单:工具调用完就只返回返回结果,但经过实践,除了返回值以外,最好再返回运行时的一些状态,辅助大模型进行判断。
并且,返回值最好也遵循工具调用的格式,比如在每次工具调用后,都生成一个结构化的 ToolResult,然后把它格式化写进上下文,送入下一轮对话。
模型会在新一轮看到这个结构,再决定怎么处理。
另外我还做了执行记录持久化,所有调用记录都会写入 database.py 的 SQLite,用于后续调试与模型行为分析。
闭环的关键在这一步:让模型“看得见自己做过什么”,否则它只是每轮都在盲试。
请见下图,当大模型执行错误的时候, 需要明确返回错误的具体原因,让大模型知道下一步应该怎么办。
在错误中返回正确参数列表带来的显著好处,就是能省一次调用带来的 Token 开销。
因为,如果在返回值中没有带上正确内容, 大模型将额外调用一次工具,这种调用本可通过更丰富的返回值避免。
在调研阶段我发现,大多数产品的行动逻辑,其实只停在前四步——理解、规划、执行、拿到结果。
工具调完,给你输出一个 markdown 或 HTML 格式的总结,这一轮任务就算完成。
如果你换个场景、换个表达方式再问一次,它又从头来过。
这种行为当然可以跑得起来,但它并不“闭环”。
因为 AI 完成的是一个段落,而不是一条路径。
我觉得:“学习”这一步,其实才是真正让系统越用越顺、越跑越准的根源。
不是指模型能力变强,而是让系统记住:这个用户喜欢保留哪些默认选项、哪些工具默认是可调用的、上一次类似任务是怎么做的。
所以我补上了这块:
在工具层加了结构化的记忆模块(MemoryManager)
在数据库中记录所有对话与工具调用历史
在用户确认机制中保留“上一次的选择”,自动适配是否再次弹出确认
严格来说,学习与优化这个动作,目的是为了让系统少打扰一次用户,少走一条重复的路。
从用户体验角度看,它能减少对用户的打扰;
从商业化角度看,它直接节省 Token ;
从系统角度来看,它带来推理效率的提升。
对我来说,这才是“行动闭环”真正闭合的标:系统在过程中形成了路径偏好和行为积累,帮助下一次可以更稳、更准地完成类似任务。
上面这五个阶段,是我在构建闭环系统的过程中慢慢拼接上来的。虽然它们未必都被主流 Agent 架构所强调,但确实是在我实际做 Alice 的过程中的体会。
说实话,后面这一部分我本来是想写得更技术一点,比如模块拆解、类结构设计、调用接口封装…
我有点担心内容太重、太细,不一定适合大家的阅读习惯。
所以这里我想先征求下意见:你是否会对AI 闭环系统背后的工程细节感兴趣?
如果想看,后面我会单独写一篇拆解文章来讲清楚:每个模块是怎么串起来的。
还有件小事,最近有家出版社联系我,想让我写一本关于 AI Agent / Native 工程化技巧 或 TPM 能力提升路径的书。
你觉得这个方向有意思吗?帮我做个选择?
在把 Alice 工具调用的闭环结构跑通之后,我重新回顾市面上的几款主流 AI Agent 产品:Manus、Auto-GPT、Flowith NEO、扣子空间、OpenManus 等。
它们的风格、定位、策略各不相同,但都有一个共同目标:让 AI 能自主完成复杂任务,成为真正能干活的智能体。
所以我尝试从“行动闭环”这个角度来重新看它们:这些产品到底有没有形成闭环?
这个闭环是结构性的,还是只是表面的流程演示?
从架构角度来看,现在的 Agent 系统大致分为五种典型策略路径:
第一类是 ReAct 模式,也是 Auto-GPT 的经典做法。模型每次生成一个“思考+行动”,执行工具后再观察结果,进入下一轮。这种方式的优点是灵活,能边做边调,但问题也很明显:缺乏全局计划,一旦上下文跟不上,容易原地兜圈。
第二类是 Plan-and-Execute,比如部分 Manus 子流程,或者 OpenManus 的任务预规划流程。AI 会先整体拆解任务,再逐步执行每一步。
这种结构更像项目经理,有助于任务收敛,但缺少重新拆解动作,一旦初始规划错了,后面就很难修正。
第三类是 链式 Agent 协作(Agent Chain),比如 BabyAGI 的设计。它由多个子Agent轮流接力,一个负责生成任务清单,一个执行,一个调整优先级。
这种架构适合任务未知、目标不明确的探索型任务,但因为会重新调整队列的优先级,收敛速度慢,Token 容易膨胀。
第四类是 多 Agent 分工结构,典型代表是 天工 和 Convergence Proxy。在它们的体系中,一个高层 Agent 负责拆任务、派单,多个执行 Agent 各自处理子任务。好处是专业化,效率高,但系统调度的成本也是最高的。
最后是 记忆驱动型(Memory-Driven)Agent,比如 Flowith NEO / Cursor 。它强调超长上下文与持久记忆,通过上下文窗口扩展和外部知识接入,让 Agent 可以跑非常长的任务、处理超大信息流,甚至记住跨会话的偏好和知识。
这也是我最推荐的结构。
虽然这些结构各有优势,也各有取舍。
但只要让模型看到上一次的结果,AI 的行为就会开始出现类似人类的路径意识:它会根据上下文该不该重试、需不需要问确认、这个文件是不是上次读过的。
这就是很多 Agent 系统能生效的关键。
很多产品都在强调自己能规划、能执行,但我现在的判断是:
闭环的关键比拼的不是规划能力,而是系统有没有完成路径的能力。
路径能力意味着什么?
意味着你能连续执行、能看见结果、能判断偏差、能做出调整、还能记住这段过程。
如果没有结果感知,每一轮都像新的一轮**;
如果没有记忆能力,整个系统就只能永远从头试错。
我现在更看重的是三件事:
模型能不能知道上一步干了什么?
系统能不能基于结果做出判断?
用户的行为能不能变成偏好而不是重复动作?
这三件事能做到,才能算作真正的闭环。
写完这个框架之后,我愈发觉得:
行动闭环这件事,表面看起来像流程调度,但本质上是架构设计。
从一个任务入口走进来,要让 AI 真正把事做完,不仅仅考模型的推理能力、prompt 设计,更是是靠系统结构设计,能不能具备健壮性,接得住大模型的每一步。
而这个结构能接得住的关键,最后我归结成三点判断。
很多人看到一个任务做不下来,会说“模型还不够聪明”、“理解能力不行”、“上下文长度不行”,但我的经验是:
模型的能力早就够用了,问题往往是结构不完整,信息断了、流程断了、记忆断了。
如果没有告诉它能用哪些工具,它当然不会调用。
如果没有上一次的结果,它当然不知道要不要继续。
毕竟,不记住它刚才做了什么,它只能反复试错。
所以闭环的核心不是模型能力堆叠,而是让模型拥有一个能走得通的工作结构。
AI 能执行一个工具、不等于闭环成立了。
我一开始也以为只要工具调起来,AI 就能把任务做完。
但后来发现,真正让系统稳定运行下去的,除了工具以外,更是调完之后能不能知道调得对不对的结果。
如果没有统一反馈结构、没有结果注入机制、没有异常判断逻辑,那模型就只能边做边猜。
所以我后来开始更重视 ToolResult 的结构、每一轮消息上下文的组织、失败情况的可视化。
虽然这些不写在模型 System prompt 里,却直接决定了模型下一轮生成是否靠谱。
闭环真正的重心,在于结果能不能被模型看见、读懂,并基于它调整行为。
我最早做这个项目时,目标只是让 AI 能把一个任务做完。
但现在回头看,闭环能力只是底层条件,真正有意义的是它为多模块协作奠定了结构基础。
一个能完成闭环的 Agent,才有可能:
支撑模块化任务链路(每步可拆、可插拔);
接入异步任务执行(中间可以 pause、resume);
承载专业化工具体系(高风险调用带确认、低风险自动运行);
支持多 Agent 分工(上层决策 + 下层工具调度 + 持久状态传递);
如果闭环都做不到,这些就只是功能拼盘,根本连不上。
而下一篇我想讨论的,就是这个结构延伸出来的下一层系统能力:工具分层架构设计。
为什么有的系统调 10 个工具还很稳,而有的系统调 3 个就混乱?
为什么要区分“核心工具”“上下文工具”“用户自定义模块”?
为什么我在 ai_chat_tools 里一定要强行加一层 module 激活系统?
这些问题,其实都跟“闭环之后怎么调协作”有关。
我们下一篇就接着说:
从代码看 AI Native 架构:为什么工具分层如此重要?
工具系统不是能调用就够了,它背后也有架构边界、有治理逻辑、有信任策略。从闭环的出口,走向系统协作的入口,我们继续往下拆。
欢迎关注。
相关攻略 更多
OpenAI底层AGI技术被曝光!前研究主管豪言:从此再无新范式
爆款AI视频越来越多,但本质我觉得跟炒股没区别。
Cursor+Claude的SVG图片生成功能,强到离谱,强烈建议写PPT没思路的时候买个会员
超20万人使用!最强开源浏览器Workflow插件【内置3300+模版】效率又起飞了~
营销获客AI公司Clay,花7年找到PMF后,快速实现10倍增长的秘密
5天连发5个王炸!MiniMax这波发布周把OpenAI都整懵了|MiniMax发布周回顾
AI应用行业全景洞察丨中国丨2025年5月丨万字诚作丨Xsignal
数字疗法AI医疗独角兽SwordHealth再融4000万,估值冲至40亿美元背后的战略棋局
最新资讯 更多
OpenAI底层AGI技术被曝光!前研究主管豪言:从此再无新范式
更新时间:2025-07-25
爆款AI视频越来越多,但本质我觉得跟炒股没区别。
更新时间:2025-07-25
Cursor+Claude的SVG图片生成功能,强到离谱,强烈建议写PPT没思路的时候买个会员
更新时间:2025-07-25
超20万人使用!最强开源浏览器Workflow插件【内置3300+模版】效率又起飞了~
更新时间:2025-07-25
营销获客AI公司Clay,花7年找到PMF后,快速实现10倍增长的秘密
更新时间:2025-07-25
5天连发5个王炸!MiniMax这波发布周把OpenAI都整懵了|MiniMax发布周回顾
更新时间:2025-07-25
AI应用行业全景洞察丨中国丨2025年5月丨万字诚作丨Xsignal
更新时间:2025-07-25
数字疗法AI医疗独角兽SwordHealth再融4000万,估值冲至40亿美元背后的战略棋局
更新时间:2025-07-25
宁德时代领投,「银河通用」完成超10亿元新一轮融资
更新时间:2025-07-25
【译】万字长文解读:生成式AI的21个设计模式、示例及应用策略
更新时间:2025-07-25