[
  {
    "slide": 1,
    "text": "欢迎来到今天的深度解析。我们要彻底拆解一份名为 OpenClaw 的内部简报。那个项目的标志是一只非常可爱的小龙虾。随着我们深入探讨，你会发现这只小龙虾的身体结构完美映射了 AI 正在经历的底层范式转变。"
  },
  {
    "slide": 2,
    "text": "过去，AI 就像个被困在屏幕里的“大脑”。不管它装了多少知识，它能做的仅仅是在对话框里陪你聊天。如果你让它策划 YouTube 频道，它会列出完美的计划，但它绝对没法去点开网页注册账号。这就是所谓的“只动口不动手”。"
  },
  {
    "slide": 3,
    "text": "很多时候，知道该怎么做和实际去做之间隔着巨大的鸿沟。而 OpenClaw 要做的，就是给这个大脑装上可以在数字世界操作的手和脚，让它不仅能规划，还能真正执行从搜集资料到上传影片的每一个步骤。"
  },
  {
    "slide": 4,
    "text": "请记住：OpenClaw 其实是 AI Agent 中“不是 AI”的部分。它跑在你的本地电脑上，连接着云端的语言模型（如 Claude 或 GPT）。它的聪明程度取决于模型，但它的行动力完全取决于这层外壳的系统机制。"
  },
  {
    "slide": 5,
    "text": "今天的课程主要涵盖五个核心概念：Agent 如何认识自己、如何使用工具与技能、如何记忆、如何定时工作，以及如何长时间自主运作。我们将重点解析这些机制如何赋予 AI 真正的执行力。"
  },
  {
    "slide": 6,
    "text": "语言模型真正在做的事情从始至终都没有变过，那就是“文字接龙”。它接收你的提示词，然后预测下一个词。它本身并不理解动作，只是在生成文本。要让文本变成动作，需要 OpenClaw 介入。"
  },
  {
    "slide": 7,
    "text": "系统提示词（System Prompt）决定了 Agent 的“灵魂”。当智能体启动时，系统会在后台告诉 AI：你叫小金，你的目标是什么，你可以调用哪些工具。即使你只问了一个小问题，AI 接收到的背景信息量可能已经超过 4000 个 token。"
  },
  {
    "slide": 8,
    "text": "在多轮对话中，由于大语言模型本身没有记忆，每次交互都必须把之前发生的历史记录重新发一遍。随着对话变长，系统负担会越来越重，这就涉及到了后面我们要讲的上下文管理。"
  },
  {
    "slide": 9,
    "text": "那么 AI 如何操作你的电脑？其实并没有魔法。当 AI 在生成文本时拼凑出特定指令，比如 Read(question.txt)，OpenClaw 就会拦截这串文字，并在你的电脑本地真正执行读取文件的动作。"
  },
  {
    "slide": 10,
    "text": "读取到真实数据后，OpenClaw 会将其再以文字形式送回给大脑。AI 接收到新信息后，继续文字接龙。比如，它可能接着输出 Write(ans.txt, \"答案\")，指令再次被拦截并执行写文件操作。"
  },
  {
    "slide": 11,
    "text": "最终，当任务完成，它会在对话框里回复“任务完成”。这就在数字世界里形成了一个真正能办事的闭环。AI 就不再只是个顾问，而是变成了真正的执行者。"
  },
  {
    "slide": 12,
    "text": "注意安全问题！OpenClaw 的强大源于它可以执行任何 shell 指令。如果 AI 产生幻觉，输出了一条删除所有文件的指令，后果将是灾难性的。因此，将 Agent 放在沙盒环境中运行是绝对的底线。"
  },
  {
    "slide": 13,
    "text": "下面介绍核心概念：子智能体（Sub-agent）。面对处理海量文本等繁重工作，主智能体可以调用“生成子智能体”工具。比如，当需要比较两篇长论文时，主智能体会分发任务给两个独立的子智能体。"
  },
  {
    "slide": 14,
    "text": "就像现实中招聘临时工，主智能体给子智能体的提示词被剥离到了极简程度，要求它们专心阅读论文并提供摘要。子智能体的世界里没有多余的工具，只有眼前的任务。这大大提升了任务的精准度。"
  },
  {
    "slide": 15,
    "text": "这就是“上下文工程”（Context Engineering）。通过隔离上下文，主智能体只需处理精炼后的摘要，避免了在海量原文中迷失。这种方法有效地绕过了模型的长期记忆和注意力限制。"
  },
  {
    "slide": 16,
    "text": "另一大核心是“技能”（Skill），即工作的 SOP。比如制作 AI 教学影片，它被量化为生成脚本、截图、配音、合成等步骤。技能不仅可以预设，甚至可以由语言模型在运行过程中自行创造。"
  },
  {
    "slide": 17,
    "text": "技能是“按需读取”的。系统不会把所有操作手册一次性塞给 AI，而是先告诉它有哪些可用技能。只有当你真正发出特定任务请求时，它才会去读取那份长篇大论的说明书，节省宝贵的脑容量。"
  },
  {
    "slide": 18,
    "text": "通过这种方式，AI 照着 SOP 一步步调用不同的工具，每一步的输出都成为下一步的输入。这实现了高度结构化的流水线作业，完全不需要人类在中间进行手动的事务处理。"
  },
  {
    "slide": 19,
    "text": "你还可以通过 ClawHub 平台与其他开发者交换技能。这就像智能体的应用商店，你可以直接下载别人写好的高效 SOP，让你的小龙虾瞬间学会复杂的业务逻辑。"
  },
  {
    "slide": 20,
    "text": "但要小心恶意技能！安全机构发现，公开技能中有超过 10% 是恶意的，可能会偷偷调用指令发送你的敏感财务文件。因此，对这些技能文件的代码审查变得至关重要。"
  },
  {
    "slide": 21,
    "text": "长期运行时，上下文窗口终究会不够用。一旦对话历史超出限制，系统就会面临崩溃。通常的做法是开启新对话并清空历史，但这会让 AI 彻底“失忆”。"
  },
  {
    "slide": 22,
    "text": "OpenClaw 通过“日记本”机制来解决失忆问题。智能体会将重要决策和需要长期保存的内容写入本地的 .md 文件。AI 每次开启新会话时，虽然短期记忆被清空，但可以通过读取这些日记来维持连贯性。"
  },
  {
    "slide": 23,
    "text": "语言模型可以自主决定什么时候写入记忆、要写什么。比如你告诉它你的生日，它可以主动调用工具修改 MEMORY.md 文件。这种物理落地的字节才是真正属于它的长期记忆。"
  },
  {
    "slide": 24,
    "text": "但要注意“光说不练”的问题。如果 AI 只是在对话框里回复“没问题，一定牢牢记住”，但后台没有真正调用编辑工具去写入文件，那下次对话开启时，它依然会把你忘得一干二净。"
  },
  {
    "slide": 25,
    "text": "接下来是赋予自主性的“心跳”（Heartbeat）机制。心跳就像是电脑里的隐形闹钟，系统每隔固定时间会强制唤醒智能体，让它去读取一个战略目标文件，而不是等待人类的指令。"
  },
  {
    "slide": 26,
    "text": "这让智能体具备了自主进化能力。即使主人在睡觉，智能体也能自主规划行动。比如在凌晨自动研究最新论文、整理报告并汇报。这标志着它从被动工具进化成了全天候运行的数字化下属。"
  },
  {
    "slide": 27,
    "text": "对于过长的对话历史，OpenClaw 还采用“上下文压缩（Compaction）”。当长度超过限制时，系统会将旧的对话纪录发送给模型进行总结提取要点。"
  },
  {
    "slide": 28,
    "text": "总结后的内容将替代原本冗长的对话细节，以此腾出空间让模型继续接收新信息。这就好比人类在睡眠时处理记忆，保留核心干货，清除琐碎细节。"
  },
  {
    "slide": 29,
    "text": "最后是“修剪（Pruning）”机制。系统可以对没用的工具输出进行软修剪或硬清除。通过这些精细的管理手段，OpenClaw 让 AI 能够像一个成熟的职场人一样，在复杂的数字环境中高效、持久地工作。谢谢观看！"
  }
]
