跳转到内容

平台与模型

Kimi Code CLI 支持多种 LLM 平台,可以通过配置文件或 /login 命令进行配置。

平台选择

最简单的配置方式是在 Shell 模式下运行 /login 命令(别名 /setup),按照向导完成平台和模型的选择:

  1. 选择 API 平台
  2. 输入 API 密钥
  3. 从可用模型列表中选择模型

配置完成后,Kimi Code CLI 会自动保存设置到 ~/.kimi/config.toml 并重新加载。

/login 目前支持以下平台:

平台说明
Kimi CodeKimi Code 平台,支持搜索和抓取服务
platform.kimi.com中国区 API 端点
platform.kimi.ai全球区 API 端点

如需使用其他平台,请手动编辑配置文件。

供应商类型

providers 配置中的 type 字段指定 API 供应商类型。不同类型使用不同的 API 协议和客户端实现。

类型说明
kimiKimi API
openai_legacyOpenAI Chat Completions API
openai_responsesOpenAI Responses API
anthropicAnthropic Claude API
geminiGoogle Gemini API
vertexaiGoogle Vertex AI

kimi

用于连接 Kimi API,包括 Kimi Code 和 Kimi Platform。

toml
[providers.kimi-for-coding]
type = "kimi"
base_url = "https://api.kimi.com/coding/v1"
api_key = "sk-xxx"

openai_legacy

兼容 OpenAI Chat Completions API 的平台,包括 OpenAI 官方 API 和各种兼容服务。

toml
[providers.openai]
type = "openai_legacy"
base_url = "https://api.openai.com/v1"
api_key = "sk-xxx"

openai_responses

用于 OpenAI Responses API(较新的 API 格式)。

toml
[providers.openai-responses]
type = "openai_responses"
base_url = "https://api.openai.com/v1"
api_key = "sk-xxx"

anthropic

用于连接 Anthropic Claude API。

toml
[providers.anthropic]
type = "anthropic"
base_url = "https://api.anthropic.com"
api_key = "sk-ant-xxx"

gemini

用于连接 Google Gemini API。

toml
[providers.gemini]
type = "gemini"
base_url = "https://generativelanguage.googleapis.com"
api_key = "xxx"

vertexai

用于连接 Google Vertex AI。需要通过 env 字段设置必要的环境变量。

toml
[providers.vertexai]
type = "vertexai"
base_url = "https://xxx-aiplatform.googleapis.com"
api_key = ""
env = { GOOGLE_CLOUD_PROJECT = "your-project-id" }

所有供应商类型都支持通过 custom_headers 字段添加自定义 HTTP 请求头。详见「配置文件」。

模型能力

模型配置中的 capabilities 字段声明模型支持的能力。这会影响 Kimi Code CLI 的功能可用性。

能力说明
thinking支持 Thinking 模式(深度思考),可开关
always_thinking始终使用 Thinking 模式(不可关闭)
image_in支持图片输入
video_in支持视频输入
toml
[models.gemini-3-pro-preview]
provider = "gemini"
model = "gemini-3-pro-preview"
max_context_size = 262144
capabilities = ["thinking", "image_in"]

thinking

声明模型支持 Thinking 模式。启用后,模型会在回答前进行更深入的推理,适合复杂问题。在 Shell 模式下,可以通过 /model 命令切换模型和 Thinking 模式,或在启动时通过 --thinking / --no-thinking 参数控制。

always_thinking

表示模型始终使用 Thinking 模式,无法关闭。例如 kimi-k2-thinking-turbo 等名称中包含 "thinking" 的模型通常具有此能力。使用这类模型时,/model 命令不会提示选择 Thinking 模式的开关。

image_in

启用图片输入能力后,可以在对话中粘贴图片(Ctrl-V)。

video_in

启用视频输入能力后,可以在对话中发送视频内容。

搜索和抓取服务

SearchWebFetchURL 工具依赖外部服务,目前仅 Kimi Code 平台提供这些服务。

使用 /login 选择 Kimi Code 平台时,搜索和抓取服务会自动配置。

服务对应工具未配置时的行为
moonshot_searchSearchWeb工具不可用
moonshot_fetchFetchURL回退到本地抓取

使用其他平台时,FetchURL 工具仍可使用,但会回退到本地抓取。