跳到主要内容

提供商

PicoClaw 通过 model_list 支持多种 LLM 协议族。

为了提供更流畅和直观的配置体验,我们推荐优先使用 Web UI 配置模型。

Web UI 模型配置

支持的提供商

提供商用途获取 API Key
OpenAIGPT 系列模型platform.openai.com
AnthropicClaude 系列模型console.anthropic.com
Anthropic MessagesAnthropic Messages 原生接口console.anthropic.com
Venice AIVenice AI 系列模型venice.ai
Google GeminiGemini 系列模型aistudio.google.com
智谱 AIGLM 系列模型bigmodel.cn
Z.AIZ.AI Coding Plan(GLM)z.ai
DeepSeekDeepSeek 系列模型platform.deepseek.com
Groq高速推理 + Whisper 语音转写console.groq.com
OpenRouter聚合多种模型openrouter.ai
Moonshot(Kimi)Kimi 系列模型platform.moonshot.cn
通义千问(Qwen)阿里云 Qwen 系列dashscope.console.aliyun.com
NVIDIANVIDIA AI 模型build.nvidia.com
MistralMistral 系列模型console.mistral.ai
AvianAvian 系列模型avian.io
LongCatLongCat 系列模型longcat.chat
ModelScopeModelScope 系列模型modelscope.cn
NovitaNovita 系列模型novita.ai
VivgridVivgrid 托管模型vivgrid.com
神算云神算云系列模型router.shengsuanyun.com
小米 MiMoMiMo 系列模型platform.xiaomimimo.com
Ollama本地模型服务本地部署,无需 Key
LM Studio本地模型服务(OpenAI 兼容)本地部署(默认无需 Key)
vLLM本地模型服务(OpenAI 兼容)本地部署
LiteLLMLiteLLM 代理本地代理
Cerebras高速推理cerebras.ai
火山引擎豆包系列模型console.volcengine.com
Azure OpenAIAzure 托管 OpenAI 模型Azure Portal
AWS BedrockBedrock 托管模型AWS Console
AntigravityGoogle Cloud Code Assist仅 OAuth
MinimaxMiniMax 系列模型platform.minimaxi.com
GitHub CopilotCopilot 桥接模型
Claude CLI / Codex CLI本地 CLI 模型桥接本地 CLI 鉴权

快速配置

{
"model_list": [
{
"model_name": "my-model",
"model": "openai/gpt-5.4",
"api_keys": ["sk-..."]
}
],
"agents": {
"defaults": {
"model_name": "my-model"
}
}
}

完整配置说明请参考模型配置

Z.AI Coding Plan 示例

Z.AI 和智谱 AI 是同一提供商的两个品牌。使用 Z.AI Coding Plan 时,使用 openai 模型前缀和 Z.AI 的 API 地址:

{
"model_name": "glm-4.7",
"model": "openai/glm-4.7",
"api_keys": ["your-z.ai-key"],
"api_base": "https://api.z.ai/api/coding/paas/v4"
}

如果标准智谱端点返回 429(余额不足),Z.AI Coding Plan 端点可能仍有可用额度,因为它们使用独立的计费系统。

语音转写

你可以通过 voice.model_name 配置专用的音频转写模型。这允许你复用已有的支持音频输入的多模态提供商,而不仅仅依赖 Groq Whisper。

如果未配置 voice.model_name,PicoClaw 会在有 Groq API Key 时回退到 Groq 转写。

{
"voice": {
"model_name": "voice-gemini",
"echo_transcription": false
}
}

模型故障转移级联

PicoClaw 支持在配置了主模型和备用模型时自动故障转移。运行时会在遇到可重试的失败(如 HTTP 429、配额/速率限制错误和超时)时尝试下一个候选。它还会对每个候选进行冷却跟踪,以避免立即重试最近失败的目标。

{
"model_list": [
{
"model_name": "qwen-main",
"model": "openai/qwen3.5:cloud",
"api_base": "https://api.example.com/v1",
"api_keys": ["sk-main"]
},
{
"model_name": "deepseek-backup",
"model": "deepseek/deepseek-chat",
"api_keys": ["sk-backup-1"]
},
{
"model_name": "gemini-backup",
"model": "gemini/gemini-2.5-flash",
"api_keys": ["sk-backup-2"]
}
],
"agents": {
"defaults": {
"model": {
"primary": "qwen-main",
"fallbacks": ["deepseek-backup", "gemini-backup"]
}
}
}
}

如果你对同一模型使用密钥级故障转移(api_keys 中的多个密钥),PicoClaw 会先尝试完所有密钥,然后再切换到跨模型备用。

特殊提供商

  • Antigravity — Google Cloud Code Assist,使用 OAuth 而非 API Key
  • Groq — 同时提供免费语音转写(Whisper),可用于 Telegram 语音消息自动转文字