基于《复刻一只 OpenClaw,需要些什么?》的深度解读与范式讨论
第一部分:原始文章核心内容总结
文章背景
标题:复刻一只 OpenClaw,需要些什么?
作者:喵小姐love西柚(Frost修栈道)
核心主题:作者分享如何从零开始复刻 OpenClaw 项目,并记录在这个过程中思维方式的转变——从传统编程思维到 AI Native 思维。
关键概念解析
| 术语 | 含义 |
|---|---|
| OpenClaw | 近期大火的通用型 AI 智能体,能在聊天软件中交流并完成任务 |
| Nanobot | OpenClaw 的最小化复现项目 |
| Bub | 作者与 PsiACE 合作的项目,作为实践想法的基础 |
| Pi | 最小化工具集思想的代表项目 |
三个时代的演进
| 时代 | 名称 | 特征 | 描述 |
|---|---|---|---|
| 1.0 | Chatbot | 每次对话都是一次 LLM 推理 | 人机对话,单次交互 |
| 2.0 | Agent/Tool call | 一次对话经过多轮到上百轮推理 | 工具调用,任务分解 |
| 3.0 | AI Native | AI 自己管理工具和技能,自己写代码实现功能 | 人类完全不干预 |
作者的核心实践
Bub 项目的关键突破:
- startup 协议:容器启动时读取固定位置的 startup 脚本,让 AI 自己写脚本驱动自己
- 单次执行模式:支持命令行驱动(类似
codex exec <prompt>或claude <prompt>) - 自我进化:AI 自己实现了 Telegram 发消息、图片、reaction 等功能,超越了框架自带能力
最小化部署步骤:
- 启动一个会写代码的 Agent(Codex 或 Claude Code)
- 让它写一个 startup 脚本,拉取 Telegram API 并用单次执行模式驱动 Agent
- 准备一个用这个脚本为启动脚本的 Dockerfile
- 构建并运行容器
- 后面要它有什么能力,用自然语言发指令就行了
AI Native 的核心理念
关键定义:
“不是’利用框架强制 AI 当小白鼠’,所有要求都只能通过 Prompt 的方式下达,AI 遵循与否完全取决于它自己。”
与框架的关系:
- 框架是限制:”框架顾名思义,是限制 AI 发挥的东西,AI 在里面就像滚筒上的小白鼠”
- 最小化框架:”我希望框架越小越好,小到只有一个推理核心,作为 AI 的大脑,把更多的自由留给 AI”
关键突破:
“人完全不用关心 AI 是写代码实现的,还是用文本描述实现的。所谓黑猫白猫,人完全不用关心。”
第二部分:关于 AI Native 的深度讨论
核心范式转变:从”AI 助人”到”人助 AI”
关键洞察:
“以前我们的思路是怎么让 AI 帮助人变强,现在的思路是怎么让人帮助 AI 变得更强。”
两种范式的对比:
| 维度 | 旧范式:AI 助人变强 | 新范式:人助 AI 变强 |
|---|---|---|
| 核心问题 | “我怎么用 AI 提高效率?” | “我怎么让 AI 变得更有能力?” |
| 主体地位 | 人类是主体,AI 是工具 | AI 是主体,人类是协助者 |
| 关注重点 | Prompt 技巧、工作流设计 | AI 的自我进化、技能学习、长期成长 |
| 成果归属 | 人类完成任务,AI 辅助 | AI 完成任务,人类提供支持 |
| 评价标准 | 人类效率提升了多少 | AI 能力增长了多少 |
范式转变的深层含义:
1. 从”控制”到”信任”
- 旧范式:人类必须控制每个环节,因为不信任 AI 的自主决策
- 新范式:人类提供环境和支持,相信 AI 能自己找到最优解
2. 从”优化”到”进化”
- 旧范式:人类优化 Prompt、工作流、工具组合
- 新范式:AI 自己进化出更好的生存策略
3. 从”效率”到”涌现”
- 旧范式:关注 AI 帮我省了多少时间
- 新范式:关注 AI 自己长出了什么人类没设计过的能力
评测问题:如何证明 AI Native 的产物是 “OK” 的
核心矛盾:
| 传统软件 | AI Native 软件 |
|---|---|
| 人类写代码 → 人类知道逻辑 → 可测试 | AI 写代码 → 人类不知道逻辑 → 怎么测? |
| 单元测试覆盖分支 | 连有哪些分支都不知道 |
评测的三个层次:
L1: 功能正确性 ──→ 输入A,输出是否是预期的B?
L2: 边界安全性 ──→ 异常输入会不会崩溃/泄密?
L3: 行为一致性 ──→ 同样场景,多次运行结果是否稳定?
可能的评测方案:
方案1:黑盒行为测试(最可行)
- 不关心内部逻辑,只测输入输出
- 用大量测试用例覆盖主流程 + 边界场景
- 问题是:测试用例谁写?人类写 → 遗漏 AI 能想到但人想不到的场景
方案2:对抗性红队测试
- 让另一个 AI 专门找茬,试图让系统出错
- 类似安全领域的红队/蓝队对抗
- 问题是:红队 AI 的能力决定了测试质量上限
方案3:运行时监控 + 回滚
- 不追求事前100%验证,靠运行时发现问题
- 影子模式:AI 的决策先不生效,和人类决策对比
- 渐进式发布:小流量 → 观察 → 全量
- 问题是:某些场景(金融、医疗)不能试错
方案4:形式化验证的替代?
- 传统软件有形式化验证(数学证明正确性)
- AI Native 几乎不可能,因为逻辑是动态生成的
- 可能的妥协:验证”元规则”(AI 不能做什么)而非具体行为
权责问题:法律风险与责任归属
核心问题清单:
1. 出了问题谁负责?(责任主体)
2. 怎么证明是 AI 的错?(举证责任)
3. 保险怎么赔?(风险转移)
4. 监管怎么管?(合规边界)
场景分析:
场景1:AI 写的代码有漏洞,被黑客利用
| 传统情况 | AI Native 情况 |
|---|---|
| 开发者负责 → 保险公司赔 → 公司承担 | 谁写的?AI → 开发者只是 prompt → 责任模糊 |
可能的法律演进方向:
- 产品责任法扩展:把 AI 系统视为”产品”,生产者(部署者)承担严格责任
- 过错推定:出事推定部署者有过错,除非能证明已尽合理注意义务
场景2:AI 自主决策造成损失
比如:AI 交易系统错误决策导致巨额亏损;AI 客服说了不当言论…
关键区分:有限自主 vs 完全自主
| 类型 | 特征 | 可能的责任归属 |
|---|---|---|
| 工具型 AI | 人类确认每一步 | 人类负全责 |
| 监督型 AI | AI 决策,人类事后审查 | 分担责任,视监督力度 |
| 完全自主 AI | AI 完全自决 | 部署者承担,可能引入 AI 法律责任主体概念 |
场景3:AI 生成内容侵权
AI 写的代码、生成的文字/图片侵权,谁负责?
现有法律框架:
- 美国:DMCA 避风港原则,平台/部署者如果及时删除可免责
- 欧盟:AI Act 草案,基础模型提供者 + 部署者分层责任
- 中国:生成式 AI 管理办法,服务提供者承担主体责任
可能的解决路径
技术层面:
- 可解释性增强:即使 AI 写代码,也要能追溯决策链条
- 沙箱隔离:AI 的产物先在隔离环境运行,通过测试才放行
- 人类在环(Human-in-the-loop):关键决策仍需人类确认
法律层面:
- 强制保险:AI 系统必须投保,类似车险
- 责任上限:法律规定最高赔偿额,平衡创新激励与风险
- 合规认证:类似 ISO,通过认证的 AI 系统获得责任减免
社会层面:
- 新的职业:AI 审计师、AI 保险精算师、AI 伦理官
- 公众教育:理解 AI 的局限性和风险
- 渐进采用:从高容错场景(内容推荐)到低容错场景(医疗诊断)
总结
这篇文章的价值在于它不仅提出了 AI Native 的理想图景,还诚实地记录了实践中的困惑和转变。
核心洞察:
“从’让 AI 帮助人变强’到’让人帮助 AI 变得更强’”
这不是简单的技术升级,而是主体性的转移——从人类中心到 AI 中心,从控制到信任,从设计到培育。
待解难题:
- 评测:如何验证一个连创造者都不完全理解的系统?
- 权责:当 AI 自主决策造成损害,法律如何归责?
这些问题没有现成答案,但正是这种探索构成了 AI Native 革命的真实图景。