0%

前言 最近在看OpenClaw这个当今最火的AI个人助理,想通过OpenClaw来研究下这种个人智能助理的设计和开发原理。但是发现OpenClaw太“重”了,动不动就是几十万行代码,层层封装,想从源码层面理解它的运行逻辑(它还是typescript语言),或者想自己魔改加个小功能,往往要翻半天文档。 直到我遇到了 nanobot。 它给我的第一感觉就是“干净”。核心代码只有 4000 行左右(大概只有OpenClaw 的 1%),但麻雀虽小,五脏俱全。它去掉了很多复杂的抽象,保留了 Agent 最核心的能力。 nanobot 内置了非常丰富的渠道支持。你可以把它接入 Telegram、D
Read more »

前言 最近在看OpenClaw这个当今最火的AI个人助理,想通过OpenClaw来研究下这种个人智能助理的设计和开发原理。但是发现OpenClaw太“重”了,动不动就是几十万行代码,层层封装,想从源码层面理解它的运行逻辑(它还是typescript语言),或者想自己魔改加个小功能,往往要翻半天文档。 直到我遇到了 nanobot。 它给我的第一感觉就是“干净”。核心代码只有 4000 行左右(大概只有OpenClaw 的 1%),但麻雀虽小,五脏俱全。它去掉了很多复杂的抽象,保留了 Agent 最核心的能力。 nanobot 内置了非常丰富的渠道支持。你可以把它接入 Telegram、D
Read more »

前言 最近在看OpenClaw这个当今最火的AI个人助理,想通过OpenClaw来研究下这种个人智能助理的设计和开发原理。但是发现OpenClaw太“重”了,动不动就是几十万行代码,层层封装,想从源码层面理解它的运行逻辑(它还是typescript语言),或者想自己魔改加个小功能,往往要翻半天文档。 直到我遇到了 nanobot。 它给我的第一感觉就是“干净”。核心代码只有 4000 行左右(大概只有OpenClaw 的 1%),但麻雀虽小,五脏俱全。它去掉了很多复杂的抽象,保留了 Agent 最核心的能力。 nanobot 内置了非常丰富的渠道支持。你可以把它接入 Telegram、D
Read more »

前言 最近在看OpenClaw这个当今最火的AI个人助理,想通过OpenClaw来研究下这种个人智能助理的设计和开发原理。但是发现OpenClaw太“重”了,动不动就是几十万行代码,层层封装,想从源码层面理解它的运行逻辑(它还是typescript语言),或者想自己魔改加个小功能,往往要翻半天文档。 直到我遇到了 nanobot。 它给我的第一感觉就是“干净”。核心代码只有 4000 行左右(大概只有OpenClaw 的 1%),但麻雀虽小,五脏俱全。它去掉了很多复杂的抽象,保留了 Agent 最核心的能力。 nanobot 内置了非常丰富的渠道支持。你可以把它接入 Telegram、D
Read more »

前言 最近OpenClaw(曾用名ClawdBot、MoltBot)大火,本文基于 OpenClaw 官方文档,结合 阿里云 ECS / 轻量应用服务器 的实际使用场景,给出一份 从零开始、可落地 的 OpenClaw 安装与部署指南,适用于测试与生产环境。 部署前准备 云服务器选择 推荐使用 阿里云 ECS 或 轻量应用服务器(SAS)。 推荐配置: * 操作系统:Ubuntu 22.04 LTS(或 20.04) * CPU:≥ 2 vCPU * 内存:≥ 4 GB * 磁盘:≥ 40 GB SSD * 网络:分配公网 IP OpenClaw 官方推荐运行在标准 L
Read more »

REST API 端点:OpenAPI 规范与使用 OpenCode 服务器提供了一个基于 OpenAPI 3.1.1 规范构建的全面 REST API,支持与 AI 编码 Agent、会话管理和项目操作的程序化交互。该架构支持同步 HTTP 请求以及通过 Server-Sent Events 和 WebSockets 进行实时通信,为多样化的集成场景提供了灵活性。 来源:openapi.json, server.ts API 架构概览 OpenCode API 遵循模块化设计,组织为不同的资源域,每个域服务于 AI 辅助开发工作流中的特定功能。服务器实现使用 Hono 框架和 hono-
Read more »

LSP 集成:服务器管理与客户端通信 OpenCode 的 LSP 集成是一套高性能、可扩展的智能代码辅助系统,基于客户端-服务器架构实现,支持 35+ 编程语言的诊断、导航、符号查询等功能,核心特点是延迟生成、资源优化、多服务器协调,同时提供灵活的配置和扩展能力。 一、LSP 架构核心:三层组件与延迟生成策略 OpenCode LSP 采用关注点分离的三层架构,确保系统高效、可维护,同时通过延迟生成优化资源占用。 1. 三层核心组件 组件职责核心功能服务器管理语言服务器的生命周期控制服务器注册、项目根目录检测、进程生成(二进制/包管理器/自动下载)客户端通信处理 LSP 协议交互JSON
Read more »

前言:转载潘锦大神的一篇博客,原文在这里 AI Agent 核心策略:如何判断 Agent 应该停止 简单来讲,AI Agent 实现的的大逻辑就是一个大的循环 + 获取上下文 + 不停的 LLM 调用 + 工具的调用。 那么一个关键问题就出现了:这个循环什么时候应该停止?如果处理不当,Agent 可能会陷入无限循环,浪费计算资源,或者过早停止而无法完成任务。本文将深入探讨 AI Agent 停止策略的核心设计思路。 常用停止策略 AI Agent 停止策略无外乎以下几种情况: 1. 硬性限制 最简单粗暴的方法: * 最大步数限制(比如最多循环 30 次) * 执行时间限制(
Read more »

提供商架构:多提供商支持模型 OpenCode 的提供商架构通过统一可扩展接口实现了多 AI 提供商的无缝集成,既抽象了不同提供商的底层复杂性,又保留了自定义配置和提供商专属优化的灵活性,核心支撑了超过 19 个内置提供商的快速接入与自定义提供商的扩展能力。 一、架构核心概述 提供商系统采用分层架构设计,将「配置管理、身份验证、模型发现、运行时执行」四大核心能力整合到内聚框架中,具备两大关键特性: 1. 内置丰富支持:直接捆绑 SDK 集成 19+ 主流 AI 提供商,消除常见用例的依赖管理成本 2. 无限扩展能力:通过插件系统支持自定义提供商加载,无需修改核心代码即可扩展新能力 3
Read more »

会话生命周期:创建、压缩与持久化 OpenCode 中的会话生命周期负责编排用户与 AI Agent 之间的对话上下文的创建、维护和演进。这个综合系统通过层级关系管理会话初始化,实施智能压缩以保持上下文效率,并提供带有自动迁移功能的强大持久化机制。 会话创建与层级结构 会话创建会建立一个带有元数据跟踪、可选父子关系和可配置自动共享的对话上下文。该系统支持独立会话以及从现有对话派生出的分支会话。 核心创建过程通过 Session.create() 进行,该方法会委托给 Session.createNext(): 来源:packages/opencode/src/session/index.
Read more »