Kimi K2.5 GitHub 资源:官方仓库、社区项目与开发工具汇总

2026/02/10

Kimi K2.5 GitHub 生态系统正在迅速发展,开发者围绕月之暗面(Moonshot AI)的旗舰模型构建工具、集成和应用。本指南涵盖官方仓库、社区项目、SDK和资源,助您加速 Kimi K2.5 开发。

Kimi K2.5 官方 GitHub 资源

月之暗面官方仓库

仓库描述URL
kimi-cli官方Kimi Code CLIgithub.com/MoonshotAI/kimi-cli
Kimi-K2.5模型权重与文档huggingface.co/moonshotai/Kimi-K2.5
MoonshotAI-Cookbook官方 API 示例集合github.com/MoonshotAI/MoonshotAI-Cookbook

Kimi Code CLI 仓库

Kimi Code CLI 是月之暗面的官方终端编程助手:

# 克隆仓库
git clone https://github.com/MoonshotAI/kimi-cli.git

# 从源码安装
cd kimi-cli
pip install -e .

主要功能:

  • 终端AI编程助手
  • ACP(Agent Client Protocol)支持
  • MCP(模型上下文协议)集成
  • 多提供商支持

仓库结构:

kimi-cli/
├── kimi/                 # 主包
├── docs/                 # 文档
├── tests/                # 测试套件
├── examples/             # 使用示例
└── README.md            # 入门指南

Kimi K2.5 社区项目

可验证的公开仓库

以下仓库当前可验证且有持续维护:

1. zsh-kimi-cli

  • Kimi Code CLI 的官方 Zsh 插件
  • URL: github.com/MoonshotAI/zsh-kimi-cli

2. kimi-code-zed-extension

  • 面向 Zed 编辑器的 Kimi Code 扩展
  • URL: github.com/MoonshotAI/kimi-code-zed-extension

3. kimi-agent-sdk

  • 月之暗面发布的 Agent SDK 相关仓库
  • URL: github.com/MoonshotAI/kimi-agent-sdk

4. kimi-agent-rs

  • Kimi Agent 生态的 Rust 仓库
  • URL: github.com/MoonshotAI/kimi-agent-rs

入门模板

目前没有单一“官方 Kimi K2.5 模板仓库”可统一引用。更稳妥做法是先脚手架项目,再接入 OpenAI 兼容客户端。

Next.js + Kimi K2.5 入门(手动搭建)

npx create-next-app@latest my-kimi-app
cd my-kimi-app
npm install openai

Python FastAPI + Kimi K2.5 入门(手动搭建)

mkdir kimi-fastapi-starter && cd kimi-fastapi-starter
python -m venv .venv && source .venv/bin/activate
pip install fastapi uvicorn openai

Kimi K2.5 SDK 和库

Python(OpenAI 兼容 SDK)

pip install openai
from openai import OpenAI

client = OpenAI(
    api_key="your-api-key",
    base_url="https://api.moonshot.cn/v1"
)

# 简单完成
response = client.chat.completions.create(
    model="kimi-k2-5",
    messages=[{"role": "user", "content": "你好!"}]
)

# 流式
for chunk in client.chat.completions.create(
    model="kimi-k2-5",
    messages=[{"role": "user", "content": "讲个故事"}],
    stream=True
):
    print(chunk.choices[0].delta.content, end="")

JavaScript/TypeScript(OpenAI 兼容 SDK)

npm install openai
import OpenAI from 'openai';

const client = new OpenAI({
  apiKey: 'your-api-key',
  baseURL: 'https://api.moonshot.cn/v1',
});

const response = await client.chat.completions.create({
  model: 'kimi-k2-5',
  messages: [{ role: 'user', content: '解释TypeScript' }],
});

Go(通过 HTTP 调用 OpenAI 兼容接口)

package main

import (
  "bytes"
  "fmt"
  "io"
  "net/http"
)

func main() {
  payload := []byte(`{
    "model":"kimi-k2-5",
    "messages":[{"role":"user","content":"你好!"}]
  }`)

  req, _ := http.NewRequest("POST", "https://api.moonshot.cn/v1/chat/completions", bytes.NewBuffer(payload))
  req.Header.Set("Authorization", "Bearer YOUR_API_KEY")
  req.Header.Set("Content-Type", "application/json")

  resp, err := http.DefaultClient.Do(req)
  if err != nil {
    panic(err)
  }
  defer resp.Body.Close()

  body, _ := io.ReadAll(resp.Body)
  fmt.Println(string(body))
}

集成示例

OpenAI SDK 兼容

import openai

# 即插即用替代品
client = openai.OpenAI(
    api_key="your-kimi-api-key",
    base_url="https://api.moonshot.cn/v1"
)

# 与现有OpenAI代码兼容
response = client.chat.completions.create(
    model="kimi-k2-5",
    messages=[{"role": "user", "content": "你好"}]
)

LangChain 集成

from langchain_openai import ChatOpenAI

# 与LangChain一起使用
llm = ChatOpenAI(
    model="kimi-k2-5",
    openai_api_key="your-kimi-api-key",
    openai_api_base="https://api.moonshot.cn/v1"
)

from langchain import LLMChain, PromptTemplate

template = """回答以下问题:
问题: {question}
答案: """

prompt = PromptTemplate(template=template, input_variables=["question"])
chain = LLMChain(llm=llm, prompt=prompt)

response = chain.run("什么是机器学习?")

LlamaIndex 集成

from llama_index.llms.openai import OpenAI
from llama_index.core import Settings

Settings.llm = OpenAI(
    model="kimi-k2-5",
    api_key="your-kimi-api-key",
    api_base="https://api.moonshot.cn/v1"
)

from llama_index.core import VectorStoreIndex, SimpleDirectoryReader

documents = SimpleDirectoryReader("data").load_data()
index = VectorStoreIndex.from_documents(documents)
query_engine = index.as_query_engine()
response = query_engine.query("总结这些文档")

Docker 和部署

Docker Compose 配置

version: '3.8'
services:
  kimi-api:
    image: vllm/vllm-openai:latest
    command: >
      --model moonshotai/Kimi-K2.5
      --tensor-parallel-size 4
    ports:
      - '8000:8000'
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              count: 4
              capabilities: [gpu]

  kimi-web:
    build: ./web
    ports:
      - '3000:3000'
    environment:
      - KIMI_API_URL=http://kimi-api:8000

Kubernetes 配置

apiVersion: v1
kind: ConfigMap
metadata:
  name: kimi-config
data:
  MODEL_NAME: 'moonshotai/Kimi-K2.5'
  TENSOR_PARALLEL: '4'
---
apiVersion: apps/v1
kind: Deployment
metadata:
  name: kimi-deployment
spec:
  replicas: 1
  selector:
    matchLabels:
      app: kimi
  template:
    metadata:
      labels:
        app: kimi
    spec:
      containers:
        - name: vllm
          image: vllm/vllm-openai:latest
          envFrom:
            - configMapRef:
                name: kimi-config
          resources:
            limits:
              nvidia.com/gpu: '4'

GitHub Actions CI/CD

自动化测试

name: Kimi K2.5 Tests

on: [push, pull_request]

jobs:
  test:
    runs-on: ubuntu-latest
    steps:
      - uses: actions/checkout@v3

      - name: Set up Python
        uses: actions/setup-python@v4
        with:
          python-version: '3.11'

      - name: Install dependencies
        run: |
          pip install -r requirements.txt
          pip install pytest

      - name: Run tests
        env:
          KIMI_API_KEY: ${{ secrets.KIMI_API_KEY }}
        run: pytest tests/

模型部署流水线

name: Deploy Kimi K2.5

on:
  push:
    branches: [main]

jobs:
  deploy:
    runs-on: ubuntu-latest
    steps:
      - uses: actions/checkout@v3

      - name: Deploy to Kubernetes
        run: |
          kubectl apply -f k8s/
          kubectl rollout status deployment/kimi-deployment

社区贡献

贡献指南

为 Kimi K2.5 项目贡献时:

  1. Fork仓库
  2. 创建功能分支git checkout -b feature/amazing-feature
  3. 提交更改git commit -m '添加惊人功能'
  4. 推送到分支git push origin feature/amazing-feature
  5. 发起Pull Request

热门贡献领域

领域描述所需技能
SDK开发语言绑定Python, JS, Go, Rust
集成框架插件框架API
文档教程、指南技术写作
示例演示应用全栈开发
测试Bug报告、QA测试方法论

代码示例仓库

完整项目示例

# 克隆官方 Cookbook
git clone https://github.com/MoonshotAI/MoonshotAI-Cookbook.git
cd MoonshotAI-Cookbook

# 浏览多语言示例
find examples -maxdepth 2 -type f | head

运行示例

# 选择示例目录后,按对应 README 运行
cd examples
ls

问题追踪和支持

GitHub Issues

在官方仓库报告问题:

  • Bug:包含复现步骤、环境详情
  • 功能:描述用例和预期行为
  • 文档:指出不清楚的章节

社区支持

  • GitHub Discussions:问答和功能请求
  • Discord:实时社区支持
  • Stack Overflow:用 kimi-k2-5 标签提问

常见问题

哪里可以找到 Kimi K2.5 官方代码示例?

优先参考 MoonshotAI-Cookbook 以及 kimi-cli 仓库中的 examples 目录。

Kimi K2.5 是开源的吗?

Kimi Code CLI 是开源的(Apache 2.0)。模型权重在改良版MIT许可证下可用,有一些商业限制。

如何为 Kimi K2.5 项目贡献?

Fork相关仓库,进行更改,并提交pull request。查看每个仓库的CONTRIBUTING.md了解具体指南。

有 Kimi K2.5 入门模板吗?

是的,社区模板存在于Next.js、FastAPI、Django等框架中。在GitHub搜索"kimi-k2-5 starter"或"kimi-k2-5 template"。

我可以使用GitHub资源自托管 Kimi K2.5 吗?

是的,社区仓库和官方文档中提供Docker和Kubernetes部署配置。

参考资源

Kimi K2.5 GitHub 资源:官方仓库、社区项目与开发工具汇总 | 博客