AI之CodeTool之Kode:Kode(claude_code风格)的简介、安装和使用方法、案例应用之详细攻略
目录
相关文章
LLMs之PE之SystemPrompt:analysis_claude_code的简介、使用方法、案例应用之详细攻略
AI之CodeTool之Kode:Kode(claude_code风格)的简介、安装和使用方法、案例应用之详细攻略
Kode的简介
1、主要特点
(1)、核心能力
(2)、先进的智能补全系统
(3)、真正的多模型协同架构
(4)、智能工作分配策略
Kode的安装和使用方法
1、安装
T1、推荐方式:使用 Bun(最快)
T2、备选方式:使用 npm
T3、使用 Docker
2、使用方法
Kode的案例应用
相关文章
LLMs之PE之SystemPrompt:analysis_claude_code的简介、使用方法、案例应用之详细攻略
LLMs之PE之SystemPrompt:analysis_claude_code的简介、使用方法、案例应用之详细攻略-CSDN博客
AI之CodeTool之Kode:Kode(claude_code风格)的简介、安装和使用方法、案例应用之详细攻略
AI之CodeTool之Kode:Kode(claude_code风格)的简介、安装和使用方法、案例应用之详细攻略-CSDN博客
Kode的简介
2025年8月,Kode 是一款功能强大的、专为终端(Terminal)设计的 AI 编程助手。它能够理解您的代码库、编辑文件、执行命令,并为您处理完整的开发工作流。与只支持单一模型的 Claude Code 不同,Kode 的核心特色是支持多模型协同工作,可以灵活调用 DeepSeek V3.1、Kimi2、GLM4.5、Qwen Coder 等多种先进的 AI 模型。
该项目致力于推动 AI Agent 技术的普及和创新,已将开源许可证从 AGPLv3 转换为更宽松的 Apache 2.0,这意味着开发者可以在任何个人、商业或企业项目中使用 Kode,而无需开源自己的代码。
Kode 还完全兼容 OpenAI 倡导的 AGENTS.md 标准,并向后兼容 Claude Code 的 CLAUDE.md 配置,方便用户迁移和维护项目文档。
安全提示:Kode 默认以“YOLO 模式”运行,该模式会跳过所有权限检查以实现最高效率。官方强烈建议仅在受信任的安全环境中对非关键项目使用此模式。在处理重要文件或使用能力未知的模型时,推荐使用 kode --safe 命令来启用权限检查和手动审批机制。
GitHub地址:https://github.com/shareAI-lab/Kode
1、主要特点
Kode 具备一系列强大且独特的功能,使其成为一个真正的 AI 开发工作台。
(1)、核心能力
- AI 驱动的辅助:利用先进的 AI 模型理解并响应您的开发请求。
- 多模型协同:可以灵活切换和组合多种 AI 模型,充分利用它们各自的独特优势。
- 专家模型咨询:通过 @ask-model-name 语法,可以随时向特定的专家模型进行咨询。
- 智能 Agent 系统:使用 @run-agent-name 语法,将特定任务委派给专门的子代理(Subagent)处理。
- 代码编辑与理解:能够直接编辑文件,并能分析项目结构和代码关系,提供智能建议。
- 命令执行:实时运行 Shell 命令并返回结果。
- 工作流自动化:通过简单的自然语言提示,处理复杂的多步骤开发任务。
(2)、先进的智能补全系统
- 智能模糊匹配:支持连字符感知(输入 dao 可匹配 run-agent-dao-qi-harmony-designer)、缩写支持(dq 匹配 dao-qi)和数字后缀处理(py3 匹配 python3)。
- 智能上下文检测:在输入时无需强制使用 @ 符号(输入 gp5 即可匹配 @ask-gpt-5),按下 Tab 或 Enter 键会自动补全 @ 前缀。
- 混合补全与智能排序:无缝地在命令、文件、Agent 和模型之间进行切换补全,并根据相关性和使用频率对结果进行智能排序。
- Unix 命令优化:内置 500 多个常用 Unix/Linux 命令数据库,并只显示当前系统实际存在的命令,高频命令(如 git, npm, docker)会优先显示。
(3)、真正的多模型协同架构
这是 Kode 最核心的技术优势,它通过以下设计实现了真正的多模型协同:
- ModelManager(多模型管理器):为每个模型维护独立的配置文件(API 端点、密钥、上下文窗口、成本参数等),并允许用户为不同场景(主对话、任务执行、推理、快速响应)设置不同的默认模型。
- TaskTool(智能任务分发):通过子代理(Subagent)机制,可以并行启动多个子任务,并允许用户在请求中指定子代理应使用的模型。
- AskExpertModel(专家咨询工具):允许在主对话流程中临时调用特定的专家模型来解决难题,其响应被独立处理,不会影响主对话流。
- 灵活的模型切换:在输入框中按 Tab 键即可快速切换当前对话的模型,或使用 /model 命令进行更详细的配置。
(4)、智能工作分配策略
Kode 提倡根据任务的不同阶段,使用最合适的模型来处理:
- 架构设计阶段:使用 o3 或 GPT-5 等擅长抽象思维的模型来探索系统架构。
- 方案细化阶段:使用 Gemini 等在工程实践和平衡推理方面有深厚积累的模型来探讨生产环境的设计细节。
- 代码实现阶段:使用 Qwen Coder、Kimi k2、GLM-4.5 或 Claude Sonnet 4 等擅长代码生成的模型进行具体编码。
- 疑难问题解决:当遇到复杂问题时,可以向 o3、Claude Opus 4.1 或 Grok 4 等专家模型寻求深度技术见解。
Kode的安装和使用方法
1、安装
Kode 提供了多种安装方式,并已支持 Windows 系统(通过 Git Bash、WSL 等方式运行)。
T1、推荐方式:使用 Bun(最快)
如果尚未安装 Bun,请先安装:
curl -fsSL https://bun.sh/install | bash
然后安装 Kode:
bun add -g @shareai-lab/kode
T2、备选方式:使用 npm
npm install -g @shareai-lab/kode
T3、使用 Docker
克隆仓库:git clone https://github.com/shareAI-lab/Kode.git
进入目录并构建镜像:docker build --no-cache -t kode .
在您的项目目录中运行容器,并通过挂载卷来持久化配置和访问项目文件:
docker run -it --rm \-v $(pwd):/workspace \-v ~/.kode:/root/.kode \-v ~/.kode.json:/root/.kode.json \-w /workspace \kode
安装后,您可以使用 kode、kwa 或 kd 命令来启动它。
2、使用方法
交互模式:直接运行 kode 进入交互式会话。
非交互模式:使用 -p 参数快速获取响应,例如:kode -p "解释这个函数" main.js。
@ 提及系统:
咨询专家模型:@ask-gpt-5 这个认证方法的安全隐患是什么?
委派任务给 Agent:@run-agent-test-writer 为这些模块创建全面的测试
引用文件:@src/components/Button.tsx
AGENTS.md 文档模式:
使用 # 作为提示前缀,Kode 会将回答格式化并追加到 AGENTS.md 文件中。例如:# 如何设置开发环境?
常用命令:
/help:显示可用命令。
/model:更改 AI 模型设置。
/config:打开配置面板。
/cost:显示 Token 使用量和成本。
/clear:清除对话历史。
Kode的案例应用
Kode 的多模型协同能力使其能够胜任复杂的开发场景。
- 案例1:架构设计:使用 o3 模型帮我设计一个高并发的消息队列系统架构;
- 案例2:多模型协作:先使用 GPT-5 模型分析这个性能问题的根本原因,然后用 Claude Sonnet 4 模型编写优化代码;
- 案例3:并行任务处理:使用 Qwen Coder 模型作为子代理,同时重构这三个模块;
- 案例4:专家咨询:这个内存泄漏问题很棘手,单独请教 Claude Opus 4.1 模型寻求解决方案;
- 案例5:代码审查:让 Kimi k2 模型审查一下这个 PR 的代码质量;
- 案例6:复杂推理:用 Grok 4 模型帮我推导一下这个算法的时间复杂度;
- 案例7:方案设计:让 GLM-4.5 模型设计一个微服务拆分方案;