Kimi K2.5 GitHub 生态系统正在迅速发展,开发者围绕月之暗面(Moonshot AI)的旗舰模型构建工具、集成和应用。本指南涵盖官方仓库、社区项目、SDK和资源,助您加速 Kimi K2.5 开发。
Kimi K2.5 官方 GitHub 资源
月之暗面官方仓库
| 仓库 | 描述 | URL |
|---|---|---|
| kimi-cli | 官方Kimi Code CLI | github.com/MoonshotAI/kimi-cli |
| Kimi-K2.5 | 模型权重与文档 | huggingface.co/moonshotai/Kimi-K2.5 |
| MoonshotAI-Cookbook | 官方 API 示例集合 | github.com/MoonshotAI/MoonshotAI-Cookbook |
Kimi Code CLI 仓库
Kimi Code CLI 是月之暗面的官方终端编程助手:
# 克隆仓库
git clone https://github.com/MoonshotAI/kimi-cli.git
# 从源码安装
cd kimi-cli
pip install -e .主要功能:
- 终端AI编程助手
- ACP(Agent Client Protocol)支持
- MCP(模型上下文协议)集成
- 多提供商支持
仓库结构:
kimi-cli/
├── kimi/ # 主包
├── docs/ # 文档
├── tests/ # 测试套件
├── examples/ # 使用示例
└── README.md # 入门指南Kimi K2.5 社区项目
可验证的公开仓库
以下仓库当前可验证且有持续维护:
1. zsh-kimi-cli
- Kimi Code CLI 的官方 Zsh 插件
- URL: github.com/MoonshotAI/zsh-kimi-cli
2. kimi-code-zed-extension
- 面向 Zed 编辑器的 Kimi Code 扩展
- URL: github.com/MoonshotAI/kimi-code-zed-extension
3. kimi-agent-sdk
- 月之暗面发布的 Agent SDK 相关仓库
- URL: github.com/MoonshotAI/kimi-agent-sdk
4. kimi-agent-rs
- Kimi Agent 生态的 Rust 仓库
- URL: github.com/MoonshotAI/kimi-agent-rs
入门模板
目前没有单一“官方 Kimi K2.5 模板仓库”可统一引用。更稳妥做法是先脚手架项目,再接入 OpenAI 兼容客户端。
Next.js + Kimi K2.5 入门(手动搭建)
npx create-next-app@latest my-kimi-app
cd my-kimi-app
npm install openaiPython FastAPI + Kimi K2.5 入门(手动搭建)
mkdir kimi-fastapi-starter && cd kimi-fastapi-starter
python -m venv .venv && source .venv/bin/activate
pip install fastapi uvicorn openaiKimi K2.5 SDK 和库
Python(OpenAI 兼容 SDK)
pip install openaifrom openai import OpenAI
client = OpenAI(
api_key="your-api-key",
base_url="https://api.moonshot.cn/v1"
)
# 简单完成
response = client.chat.completions.create(
model="kimi-k2-5",
messages=[{"role": "user", "content": "你好!"}]
)
# 流式
for chunk in client.chat.completions.create(
model="kimi-k2-5",
messages=[{"role": "user", "content": "讲个故事"}],
stream=True
):
print(chunk.choices[0].delta.content, end="")JavaScript/TypeScript(OpenAI 兼容 SDK)
npm install openaiimport OpenAI from 'openai';
const client = new OpenAI({
apiKey: 'your-api-key',
baseURL: 'https://api.moonshot.cn/v1',
});
const response = await client.chat.completions.create({
model: 'kimi-k2-5',
messages: [{ role: 'user', content: '解释TypeScript' }],
});Go(通过 HTTP 调用 OpenAI 兼容接口)
package main
import (
"bytes"
"fmt"
"io"
"net/http"
)
func main() {
payload := []byte(`{
"model":"kimi-k2-5",
"messages":[{"role":"user","content":"你好!"}]
}`)
req, _ := http.NewRequest("POST", "https://api.moonshot.cn/v1/chat/completions", bytes.NewBuffer(payload))
req.Header.Set("Authorization", "Bearer YOUR_API_KEY")
req.Header.Set("Content-Type", "application/json")
resp, err := http.DefaultClient.Do(req)
if err != nil {
panic(err)
}
defer resp.Body.Close()
body, _ := io.ReadAll(resp.Body)
fmt.Println(string(body))
}集成示例
OpenAI SDK 兼容
import openai
# 即插即用替代品
client = openai.OpenAI(
api_key="your-kimi-api-key",
base_url="https://api.moonshot.cn/v1"
)
# 与现有OpenAI代码兼容
response = client.chat.completions.create(
model="kimi-k2-5",
messages=[{"role": "user", "content": "你好"}]
)LangChain 集成
from langchain_openai import ChatOpenAI
# 与LangChain一起使用
llm = ChatOpenAI(
model="kimi-k2-5",
openai_api_key="your-kimi-api-key",
openai_api_base="https://api.moonshot.cn/v1"
)
from langchain import LLMChain, PromptTemplate
template = """回答以下问题:
问题: {question}
答案: """
prompt = PromptTemplate(template=template, input_variables=["question"])
chain = LLMChain(llm=llm, prompt=prompt)
response = chain.run("什么是机器学习?")LlamaIndex 集成
from llama_index.llms.openai import OpenAI
from llama_index.core import Settings
Settings.llm = OpenAI(
model="kimi-k2-5",
api_key="your-kimi-api-key",
api_base="https://api.moonshot.cn/v1"
)
from llama_index.core import VectorStoreIndex, SimpleDirectoryReader
documents = SimpleDirectoryReader("data").load_data()
index = VectorStoreIndex.from_documents(documents)
query_engine = index.as_query_engine()
response = query_engine.query("总结这些文档")Docker 和部署
Docker Compose 配置
version: '3.8'
services:
kimi-api:
image: vllm/vllm-openai:latest
command: >
--model moonshotai/Kimi-K2.5
--tensor-parallel-size 4
ports:
- '8000:8000'
deploy:
resources:
reservations:
devices:
- driver: nvidia
count: 4
capabilities: [gpu]
kimi-web:
build: ./web
ports:
- '3000:3000'
environment:
- KIMI_API_URL=http://kimi-api:8000Kubernetes 配置
apiVersion: v1
kind: ConfigMap
metadata:
name: kimi-config
data:
MODEL_NAME: 'moonshotai/Kimi-K2.5'
TENSOR_PARALLEL: '4'
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: kimi-deployment
spec:
replicas: 1
selector:
matchLabels:
app: kimi
template:
metadata:
labels:
app: kimi
spec:
containers:
- name: vllm
image: vllm/vllm-openai:latest
envFrom:
- configMapRef:
name: kimi-config
resources:
limits:
nvidia.com/gpu: '4'GitHub Actions CI/CD
自动化测试
name: Kimi K2.5 Tests
on: [push, pull_request]
jobs:
test:
runs-on: ubuntu-latest
steps:
- uses: actions/checkout@v3
- name: Set up Python
uses: actions/setup-python@v4
with:
python-version: '3.11'
- name: Install dependencies
run: |
pip install -r requirements.txt
pip install pytest
- name: Run tests
env:
KIMI_API_KEY: ${{ secrets.KIMI_API_KEY }}
run: pytest tests/模型部署流水线
name: Deploy Kimi K2.5
on:
push:
branches: [main]
jobs:
deploy:
runs-on: ubuntu-latest
steps:
- uses: actions/checkout@v3
- name: Deploy to Kubernetes
run: |
kubectl apply -f k8s/
kubectl rollout status deployment/kimi-deployment社区贡献
贡献指南
为 Kimi K2.5 项目贡献时:
- Fork仓库
- 创建功能分支:
git checkout -b feature/amazing-feature - 提交更改:
git commit -m '添加惊人功能' - 推送到分支:
git push origin feature/amazing-feature - 发起Pull Request
热门贡献领域
| 领域 | 描述 | 所需技能 |
|---|---|---|
| SDK开发 | 语言绑定 | Python, JS, Go, Rust |
| 集成 | 框架插件 | 框架API |
| 文档 | 教程、指南 | 技术写作 |
| 示例 | 演示应用 | 全栈开发 |
| 测试 | Bug报告、QA | 测试方法论 |
代码示例仓库
完整项目示例
# 克隆官方 Cookbook
git clone https://github.com/MoonshotAI/MoonshotAI-Cookbook.git
cd MoonshotAI-Cookbook
# 浏览多语言示例
find examples -maxdepth 2 -type f | head运行示例
# 选择示例目录后,按对应 README 运行
cd examples
ls问题追踪和支持
GitHub Issues
在官方仓库报告问题:
- Bug:包含复现步骤、环境详情
- 功能:描述用例和预期行为
- 文档:指出不清楚的章节
社区支持
- GitHub Discussions:问答和功能请求
- Discord:实时社区支持
- Stack Overflow:用
kimi-k2-5标签提问
常见问题
哪里可以找到 Kimi K2.5 官方代码示例?
优先参考 MoonshotAI-Cookbook 以及 kimi-cli 仓库中的 examples 目录。
Kimi K2.5 是开源的吗?
Kimi Code CLI 是开源的(Apache 2.0)。模型权重在改良版MIT许可证下可用,有一些商业限制。
如何为 Kimi K2.5 项目贡献?
Fork相关仓库,进行更改,并提交pull request。查看每个仓库的CONTRIBUTING.md了解具体指南。
有 Kimi K2.5 入门模板吗?
是的,社区模板存在于Next.js、FastAPI、Django等框架中。在GitHub搜索"kimi-k2-5 starter"或"kimi-k2-5 template"。
我可以使用GitHub资源自托管 Kimi K2.5 吗?
是的,社区仓库和官方文档中提供Docker和Kubernetes部署配置。