AI 终端代理与自主工具
AI 代理正在从"对话助手"进化为"自主执行者"。这些工具可以直接在终端中读写代码、运行命令、管理文件,甚至自主完成复杂任务。
这页更适合作为“终端 AI 代理选型与上手页”。和普通聊天工具相比,终端代理的核心差异在于它能否安全地读仓库、执行命令、遵守规则,并在你可接受的边界内持续工作。
先按场景选
- 想在本地仓库里高效改代码:优先终端编程代理
- 想保留传统终端体验并补 AI:优先 Warp 这类 AI 终端
- 想做消息平台驱动的自动化:优先 OpenClaw / nanobot
- 想分析超大上下文代码库:优先支持长上下文的 CLI 代理
- 想要最低风险起步:先用建议模式或只读模式
工具总览
| 工具 | 开发商 | 类型 | 核心能力 | 定价 |
|---|---|---|---|---|
| Claude Code | Anthropic | 终端代理 | 代码库理解、多文件编辑、Git 操作 | Pro $20/月起 |
| Codex CLI | OpenAI | 终端代理 | 代码生成、Shell 执行、MCP 支持 | ChatGPT Plus $20/月 |
| Warp | Warp | AI 终端 | 智能命令建议、Agent 模式、错误解释 | 免费 / Teams $22/月 |
| OpenClaw | 开源社区 | 自主代理 | 跨平台任务自动化、消息平台集成 | 免费开源 |
| nanobot | HKUDS | 轻量代理 | 4000 行代码、多平台、MCP 支持 | 免费开源 |
| Gemini CLI | 终端代理 | 百万 Token 上下文、Google 生态集成 | 免费 |
Claude Code
Anthropic 的终端编程代理,直接在命令行中操作代码库。
安装
npm install -g @anthropic-ai/claude-code
基本使用
# 进入项目目录后启动
claude
# 直接执行任务
claude "给所有 API 路由添加错误处理"
# 非交互模式
claude -p "解释这个项目的架构"
核心能力
- 理解整个代码库结构
- 多文件编辑和重构
- 运行测试并修复失败用例
- Git 操作(提交、创建 PR)
- 支持 Subagents 并行执行子任务
- 支持 Hooks 和 Skills 自动化
配置文件
项目根目录创建 CLAUDE.md:
# 项目上下文
技术栈:Nuxt 4 + TypeScript + UnoCSS
构建命令:bun run build
测试命令:bun run test
## 规范
- 中文注释
- Composition API
- Conventional Commits
定价
需要 Claude Pro($20/月)、Max($100/月)订阅,或使用 API Key 按量付费。
Codex CLI
OpenAI 的终端编程代理,轻量级设计。
安装
npm install -g @openai/codex
基本使用
# 交互模式
codex
# 直接执行
codex "重构 utils 目录,拆分为独立模块"
运行模式
| 模式 | 说明 | 适用场景 |
|---|---|---|
| Suggest | 只建议,不执行 | 探索和学习 |
| Auto Edit | 自动编辑文件,命令需确认 | 日常开发 |
| Full Auto | 完全自主执行 | 信任度高的任务 |
特点
- 沙箱执行,安全隔离
- 支持 MCP 服务器集成
- 使用 GPT-5 系列模型
- 需要 ChatGPT Plus 订阅或 API Key
Skills 与 MCP
在现代 Agent 工作流里,通常会把重复方法论沉淀成 skills,把外部工具能力接到 MCP:
- Skills:适合封装安装流程、发布检查、代码规范、排障步骤
- MCP:适合连接文件系统、数据库、浏览器、GitHub、Docker 等能力
- 组合方式:用 Skills 管流程,用 MCP 管执行能力
延伸阅读:
推荐接入顺序
比较稳的接入方式通常是:
- 先拿非关键仓库测试
- 先用解释、审查、定位问题这类低风险任务
- 再放开单文件修改和命令建议
- 再接 MCP、浏览器、GitHub 等外部能力
- 最后才让它执行高权限或长链路自动化
这样做可以在不牺牲安全感的前提下,逐步建立信任边界。
Warp
用 Rust 构建的现代 AI 终端,GPU 加速渲染。
安装
# Windows
winget install Warp.Warp
# macOS
brew install --cask warp
核心功能
- Agent 模式:自然语言描述任务,AI 生成并执行命令序列
- 智能补全:基于命令历史和上下文的建议
- 错误解释:自动分析错误信息并给出修复建议
- Warp Drive:团队共享命令和工作流
- Oz 平台:云端 AI 代理编排
AI 使用示例
# 在 Warp 中直接用自然语言
> 找出占用 3000 端口的进程并杀掉
> 把当前目录下所有 .jpg 转换为 .webp
> 创建一个 Docker Compose 配置,包含 Postgres 和 Redis
定价
| 方案 | 价格 | 说明 |
|---|---|---|
| Free | $0 | 基础 AI 功能 |
| Pro | $15/月 | 更多 AI 请求 |
| Teams | $22/用户/月 | 团队协作 |
| Enterprise | 联系销售 | 企业安全 |
OpenClaw
自托管的个人 AI 助手网关,连接多个聊天平台到 AI 代理。前身为 Clawdbot / Moltbot。详见 OpenClaw 文档。
核心能力
- 多平台集成:WhatsApp、Telegram、Discord、Slack、iMessage 等
- 浏览器控制、Canvas 可视化、语音交互
- 本地运行,数据完全掌控
- 多代理路由、技能系统
快速开始
npx openclaw onboard
nanobot
香港大学开发的超轻量级 AI 助手,仅 4000 行代码。详见 nanobot 文档。
核心能力
- 极简设计,易于学习和扩展
- 支持 11+ LLM 提供商
- Telegram、Discord、WhatsApp、Feishu、Email 等平台
- MCP 工具服务器集成
- 定时任务和心跳机制
快速开始
pip install nanobot-ai
nanobot onboard
nanobot agent
Gemini CLI
Google 的终端 AI 代理,支持超长上下文。
安装
npm install -g @anthropic-ai/gemini-cli
# 或直接使用 npx
npx @google/gemini-cli
特点
- 百万 Token 上下文窗口,适合大型代码库
- 与 Google 搜索、Docs 等生态集成
- 免费使用(需 Google 账号)
- 支持 MCP 协议
对比建议
| 场景 | 推荐 |
|---|---|
| 专业代码重构和开发 | Claude Code |
| 轻量终端编程辅助 | Codex CLI |
| 替代传统终端 | Warp |
| 生活/工作任务自动化 | OpenClaw |
| 大型代码库分析 | Gemini CLI |
| 免费方案 | Gemini CLI / Warp Free |
权限与安全边界
终端代理真正要提前想清楚的是:
- 它能读哪些目录
- 它能不能联网
- 它能不能直接执行 Shell
- 它能不能改 Git、提 PR、推远端
- 是否需要人工确认每一步
如果这些边界没定清楚,再强的代理也容易让人用得提心吊胆。
常见问题
为什么代理看起来很强,但实际效率一般
高频原因通常包括:
- 仓库上下文太乱
- 没有规则文件或任务边界
- 一次给了过大任务
- 权限限制和预期不一致
应该先用 AI IDE 还是终端代理
如果你更依赖编辑器交互和可视化修改,先用 AI IDE;如果你经常改仓库、跑命令、查日志、批量处理文件,终端代理会更顺手。
什么时候不该用 Full Auto
涉及生产环境、删除性操作、敏感密钥、财务数据、远端推送或不可逆脚本时,都不建议一开始就完全放权。
延伸阅读
参考链接
- Claude Code 文档 — 安装与使用
- Codex CLI GitHub — 源码与文档
- Warp 官网 — 下载与文档
- OpenClaw GitHub — 源码
- Gemini CLI — Google 终端代理
- CLAUDE.md 最佳实践 — 项目配置