1.web界面-深入探索部分的流程图显示效果并不好,竖直长条状的图观看体验不好,英文单词会超过边框。
2.web界面-学习 部分与 源码 并不对应,比如说第一章的这一部分,应该是def run_one_turn(state: LoopState) -> bool的内容,由于
def agent_loop(state: LoopState) -> None:
while run_one_turn(state):
pass
尽管这几乎没有区别,但是完全对应的效果更好。
3.太多的md文件,仅s00就有s00、s00a、s00b、s00c、s00d、s00e、s00f。尽管这是必须的。但是对应第一次打开这个仓库的学习者来说,可能会不知道看什么开始,因此,尽快开始是个好主意。
4.原有的README-zh.md中
Agent 不是什么
"Agent" 这个词已经被一整个提示词水管工产业劫持了。
拖拽式工作流构建器。无代码 "AI Agent" 平台。提示词链编排库。它们共享同一个幻觉:把 LLM API 调用用 if-else 分支、节点图、硬编码路由逻辑串在一起就算是 "构建 Agent" 了。
不是的。它们做出来的东西是鲁布·戈德堡机械 -- 一个过度工程化的、脆弱的过程式规则流水线,LLM 被楔在里面当一个美化了的文本补全节点。那不是 Agent。那是一个有着宏大妄想的 shell 脚本。
提示词水管工式 "Agent" 是不做模型的程序员的意淫。 他们试图通过堆叠过程式逻辑来暴力模拟智能 -- 庞大的规则树、节点图、链式提示词瀑布流 -- 然后祈祷足够多的胶水代码能涌现出自主行为。不会的。你不可能通过工程手段编码出 agency。Agency 是学出来的,不是编出来的。
那些系统从诞生之日起就已经死了:脆弱、不可扩展、根本不具备泛化能力。它们是 GOFAI(Good Old-Fashioned AI,经典符号 AI)的现代还魂 -- 几十年前就被学界抛弃的符号规则系统,现在喷了一层 LLM 的漆又登场了。换了个包装,同一条死路。
模型做决策。Harness 执行。模型做推理。Harness 提供上下文。模型是驾驶者。Harness 是载具。
在README-zh.md中,阐明大模型就是决策的主体。
没有试图成为 agent 本身。它没有强加僵化的工作流。它没有用精心设计的决策树去替模型做判断。它给模型提供了工具、知识、上下文管理和权限边界。
大模型本身就会做决策,而不是我们替它做决策。我们真正要做的是Harness(——一个围绕 LLM 构建的运行时框架)。
这些都是非常好的内容,删除太可惜了。在我看来,Agent=LLM+Harness。
1.web界面-深入探索部分的流程图显示效果并不好,竖直长条状的图观看体验不好,英文单词会超过边框。
2.web界面-学习 部分与 源码 并不对应,比如说第一章的这一部分,应该是
def run_one_turn(state: LoopState) -> bool的内容,由于尽管这几乎没有区别,但是完全对应的效果更好。
3.太多的md文件,仅s00就有s00、s00a、s00b、s00c、s00d、s00e、s00f。尽管这是必须的。但是对应第一次打开这个仓库的学习者来说,可能会不知道看什么开始,因此,尽快开始是个好主意。
4.原有的README-zh.md中
在README-zh.md中,阐明大模型就是决策的主体。
没有试图成为 agent 本身。它没有强加僵化的工作流。它没有用精心设计的决策树去替模型做判断。它给模型提供了工具、知识、上下文管理和权限边界。大模型本身就会做决策,而不是我们替它做决策。我们真正要做的是Harness(——一个围绕 LLM 构建的运行时框架)。
这些都是非常好的内容,删除太可惜了。在我看来,Agent=LLM+Harness。