起飞就起飞

AI Native 深度讨论与思考——从复刻 OpenClaw 到范式转变

Posted on By baixiao

基于《复刻一只 OpenClaw,需要些什么?》的深度解读与范式讨论


第一部分:原始文章核心内容总结

文章背景

标题复刻一只 OpenClaw,需要些什么?
作者:喵小姐love西柚(Frost修栈道)
核心主题:作者分享如何从零开始复刻 OpenClaw 项目,并记录在这个过程中思维方式的转变——从传统编程思维到 AI Native 思维。

关键概念解析

术语 含义
OpenClaw 近期大火的通用型 AI 智能体,能在聊天软件中交流并完成任务
Nanobot OpenClaw 的最小化复现项目
Bub 作者与 PsiACE 合作的项目,作为实践想法的基础
Pi 最小化工具集思想的代表项目

三个时代的演进

时代 名称 特征 描述
1.0 Chatbot 每次对话都是一次 LLM 推理 人机对话,单次交互
2.0 Agent/Tool call 一次对话经过多轮到上百轮推理 工具调用,任务分解
3.0 AI Native AI 自己管理工具和技能,自己写代码实现功能 人类完全不干预

作者的核心实践

Bub 项目的关键突破

  1. startup 协议:容器启动时读取固定位置的 startup 脚本,让 AI 自己写脚本驱动自己
  2. 单次执行模式:支持命令行驱动(类似 codex exec <prompt>claude <prompt>
  3. 自我进化:AI 自己实现了 Telegram 发消息、图片、reaction 等功能,超越了框架自带能力

最小化部署步骤

  1. 启动一个会写代码的 Agent(Codex 或 Claude Code)
  2. 让它写一个 startup 脚本,拉取 Telegram API 并用单次执行模式驱动 Agent
  3. 准备一个用这个脚本为启动脚本的 Dockerfile
  4. 构建并运行容器
  5. 后面要它有什么能力,用自然语言发指令就行了

AI Native 的核心理念

关键定义

“不是’利用框架强制 AI 当小白鼠’,所有要求都只能通过 Prompt 的方式下达,AI 遵循与否完全取决于它自己。”

与框架的关系

  • 框架是限制:”框架顾名思义,是限制 AI 发挥的东西,AI 在里面就像滚筒上的小白鼠”
  • 最小化框架:”我希望框架越小越好,小到只有一个推理核心,作为 AI 的大脑,把更多的自由留给 AI”

关键突破

“人完全不用关心 AI 是写代码实现的,还是用文本描述实现的。所谓黑猫白猫,人完全不用关心。”


第二部分:关于 AI Native 的深度讨论

核心范式转变:从”AI 助人”到”人助 AI”

关键洞察

“以前我们的思路是怎么让 AI 帮助人变强,现在的思路是怎么让人帮助 AI 变得更强。”

两种范式的对比

维度 旧范式:AI 助人变强 新范式:人助 AI 变强
核心问题 “我怎么用 AI 提高效率?” “我怎么让 AI 变得更有能力?”
主体地位 人类是主体,AI 是工具 AI 是主体,人类是协助者
关注重点 Prompt 技巧、工作流设计 AI 的自我进化、技能学习、长期成长
成果归属 人类完成任务,AI 辅助 AI 完成任务,人类提供支持
评价标准 人类效率提升了多少 AI 能力增长了多少

范式转变的深层含义

1. 从”控制”到”信任”

  • 旧范式:人类必须控制每个环节,因为不信任 AI 的自主决策
  • 新范式:人类提供环境和支持,相信 AI 能自己找到最优解

2. 从”优化”到”进化”

  • 旧范式:人类优化 Prompt、工作流、工具组合
  • 新范式:AI 自己进化出更好的生存策略

3. 从”效率”到”涌现”

  • 旧范式:关注 AI 帮我省了多少时间
  • 新范式:关注 AI 自己长出了什么人类没设计过的能力

评测问题:如何证明 AI Native 的产物是 “OK” 的

核心矛盾

传统软件 AI Native 软件
人类写代码 → 人类知道逻辑 → 可测试 AI 写代码 → 人类不知道逻辑 → 怎么测?
单元测试覆盖分支 连有哪些分支都不知道

评测的三个层次

L1: 功能正确性 ──→ 输入A,输出是否是预期的B?
L2: 边界安全性 ──→ 异常输入会不会崩溃/泄密?
L3: 行为一致性 ──→ 同样场景,多次运行结果是否稳定?

可能的评测方案

方案1:黑盒行为测试(最可行)

  • 不关心内部逻辑,只测输入输出
  • 用大量测试用例覆盖主流程 + 边界场景
  • 问题是:测试用例谁写?人类写 → 遗漏 AI 能想到但人想不到的场景

方案2:对抗性红队测试

  • 让另一个 AI 专门找茬,试图让系统出错
  • 类似安全领域的红队/蓝队对抗
  • 问题是:红队 AI 的能力决定了测试质量上限

方案3:运行时监控 + 回滚

  • 不追求事前100%验证,靠运行时发现问题
  • 影子模式:AI 的决策先不生效,和人类决策对比
  • 渐进式发布:小流量 → 观察 → 全量
  • 问题是:某些场景(金融、医疗)不能试错

方案4:形式化验证的替代?

  • 传统软件有形式化验证(数学证明正确性)
  • AI Native 几乎不可能,因为逻辑是动态生成的
  • 可能的妥协:验证”元规则”(AI 不能做什么)而非具体行为

权责问题:法律风险与责任归属

核心问题清单

1. 出了问题谁负责?(责任主体)
2. 怎么证明是 AI 的错?(举证责任)
3. 保险怎么赔?(风险转移)
4. 监管怎么管?(合规边界)

场景分析

场景1:AI 写的代码有漏洞,被黑客利用

传统情况 AI Native 情况
开发者负责 → 保险公司赔 → 公司承担 谁写的?AI → 开发者只是 prompt → 责任模糊

可能的法律演进方向:

  • 产品责任法扩展:把 AI 系统视为”产品”,生产者(部署者)承担严格责任
  • 过错推定:出事推定部署者有过错,除非能证明已尽合理注意义务

场景2:AI 自主决策造成损失

比如:AI 交易系统错误决策导致巨额亏损;AI 客服说了不当言论…

关键区分:有限自主 vs 完全自主

类型 特征 可能的责任归属
工具型 AI 人类确认每一步 人类负全责
监督型 AI AI 决策,人类事后审查 分担责任,视监督力度
完全自主 AI AI 完全自决 部署者承担,可能引入 AI 法律责任主体概念

场景3:AI 生成内容侵权

AI 写的代码、生成的文字/图片侵权,谁负责?

现有法律框架:

  • 美国:DMCA 避风港原则,平台/部署者如果及时删除可免责
  • 欧盟:AI Act 草案,基础模型提供者 + 部署者分层责任
  • 中国:生成式 AI 管理办法,服务提供者承担主体责任

可能的解决路径

技术层面

  1. 可解释性增强:即使 AI 写代码,也要能追溯决策链条
  2. 沙箱隔离:AI 的产物先在隔离环境运行,通过测试才放行
  3. 人类在环(Human-in-the-loop):关键决策仍需人类确认

法律层面

  1. 强制保险:AI 系统必须投保,类似车险
  2. 责任上限:法律规定最高赔偿额,平衡创新激励与风险
  3. 合规认证:类似 ISO,通过认证的 AI 系统获得责任减免

社会层面

  1. 新的职业:AI 审计师、AI 保险精算师、AI 伦理官
  2. 公众教育:理解 AI 的局限性和风险
  3. 渐进采用:从高容错场景(内容推荐)到低容错场景(医疗诊断)

总结

这篇文章的价值在于它不仅提出了 AI Native 的理想图景,还诚实地记录了实践中的困惑和转变

核心洞察

“从’让 AI 帮助人变强’到’让人帮助 AI 变得更强’”

这不是简单的技术升级,而是主体性的转移——从人类中心到 AI 中心,从控制到信任,从设计到培育。

待解难题

  • 评测:如何验证一个连创造者都不完全理解的系统?
  • 权责:当 AI 自主决策造成损害,法律如何归责?

这些问题没有现成答案,但正是这种探索构成了 AI Native 革命的真实图景。