跳到主要内容

模型配置

为了获得更流畅、直观的配置体验,我们推荐优先通过 Web UI 配置模型。

Web UI 模型配置

当你需要自动化部署或模板化管理时,也可以手动编辑 config.json

PicoClaw 采用以模型为中心的配置方式。只需指定 vendor/model-id,即可选择对应协议并接入模型。

这种设计还支持多 Agent 灵活调用:

  • 不同 Agent 使用不同提供商:每个 Agent 可以有自己的 LLM 提供商
  • 模型备用(Fallback):配置主要模型和备用模型,提高可靠性
  • 负载均衡:将请求分发到多个端点
  • 集中管理:所有提供商配置在同一个地方

支持的提供商与协议

提供商model 前缀默认 API 地址协议获取 API Key
OpenAIopenai/https://api.openai.com/v1OpenAI获取
Anthropicanthropic/https://api.anthropic.com/v1Anthropic获取
Anthropic Messagesanthropic-messages/https://api.anthropic.com/v1Anthropic Messages获取
Azure OpenAIazure/azure-openai/自定义 Azure 端点Azure OpenAIAzure Portal
AWS Bedrockbedrock/AWS 区域或运行时端点BedrockAWS 凭证
Venice AIvenice/https://api.venice.ai/api/v1OpenAI 兼容获取
OpenRouteropenrouter/https://openrouter.ai/api/v1OpenAI 兼容获取
LiteLLMlitellm/http://localhost:4000/v1OpenAI 兼容本地代理
LM Studiolmstudio/http://localhost:1234/v1OpenAI 兼容可选(本地默认无需密钥)
Groqgroq/https://api.groq.com/openai/v1OpenAI 兼容获取
智谱 AI(GLM)zhipu/https://open.bigmodel.cn/api/paas/v4OpenAI 兼容获取
Google Geminigemini/https://generativelanguage.googleapis.com/v1betaOpenAI 兼容获取
NVIDIAnvidia/https://integrate.api.nvidia.com/v1OpenAI 兼容获取
Ollama(本地)ollama/http://localhost:11434/v1OpenAI 兼容无需 Key
Moonshot(Kimi)moonshot/https://api.moonshot.cn/v1OpenAI 兼容获取
神算云shengsuanyun/https://router.shengsuanyun.com/api/v1OpenAI 兼容获取
DeepSeekdeepseek/https://api.deepseek.com/v1OpenAI 兼容获取
Cerebrascerebras/https://api.cerebras.ai/v1OpenAI 兼容获取
Vivgridvivgrid/https://api.vivgrid.com/v1OpenAI 兼容获取
火山引擎volcengine/https://ark.cn-beijing.volces.com/api/v3OpenAI 兼容获取
vLLM(本地)vllm/http://localhost:8000/v1OpenAI 兼容本地部署
Qwen(中国区)qwen/https://dashscope.aliyuncs.com/compatible-mode/v1OpenAI 兼容获取
Qwen(国际区)qwen-intl/https://dashscope-intl.aliyuncs.com/compatible-mode/v1OpenAI 兼容获取
Qwen(美国区)qwen-us/https://dashscope-us.aliyuncs.com/compatible-mode/v1OpenAI 兼容获取
Coding Plancoding-plan/https://coding-intl.dashscope.aliyuncs.com/v1OpenAI 兼容获取
Coding Plan(Anthropic)coding-plan-anthropic/https://coding-intl.dashscope.aliyuncs.com/apps/anthropicAnthropic 兼容获取
Mistralmistral/https://api.mistral.ai/v1OpenAI 兼容获取
Avianavian/https://api.avian.io/v1OpenAI 兼容获取
Minimaxminimax/https://api.minimaxi.com/v1OpenAI 兼容获取
LongCatlongcat/https://api.longcat.chat/openaiOpenAI 兼容获取
ModelScopemodelscope/https://api-inference.modelscope.cn/v1OpenAI 兼容获取
Novitanovita/https://api.novita.ai/openaiOpenAI 兼容获取
MiMomimo/https://api.xiaomimimo.com/v1OpenAI 兼容获取
Antigravityantigravity/Google CloudOAuth仅 OAuth
GitHub Copilotgithub-copilot/localhost:4321gRPC
Claude CLIclaude-cli/不适用CLI本地 CLI 鉴权
Codex CLIcodex-cli/不适用CLI本地 CLI 鉴权

另外也支持别名,例如:qwen-internationaldashscope-intldashscope-usalibaba-codingqwen-codingalibaba-coding-anthropiccopilotclaudeclicodexcli

通过自定义 API Base 接入任意兼容模型

不局限于上表中的提供商。使用 openai/anthropic/ 前缀,并配合第三方 api_base,即可接入任意 OpenAI 兼容或 Anthropic 兼容模型。

{
"model_name": "my-custom-model",
"model": "openai/my-custom-model",
"api_base": "https://custom-api.com/v1",
"api_keys": ["YOUR_API_KEY"]
}

推荐配置方式

在配置 schema 2 中,建议将模型结构放在 config.json,将密钥放在 .security.yml。 以下示例聚焦模型相关字段。作为完整配置文件时,请在顶层保留 "version": 2

{
"model_list": [
{
"model_name": "gpt-5.4",
"model": "openai/gpt-5.4"
},
{
"model_name": "claude-sonnet-4.6",
"model": "anthropic/claude-sonnet-4-6"
},
{
"model_name": "lmstudio-local",
"model": "lmstudio/openai/gpt-oss-20b"
}
],
"agents": {
"defaults": {
"model_name": "gpt-5.4"
}
}
}
# ~/.picoclaw/.security.yml
model_list:
gpt-5.4:0:
api_keys:
- "sk-openai-..."
claude-sonnet-4.6:0:
api_keys:
- "sk-ant-..."

模型条目字段

字段类型必填说明
model_namestring别名(在 agents.defaults.model_name 中引用)
modelstringvendor/model-id 格式。前导 vendor/ 仅用于协议与默认 api_base 识别,不会原样发送给上游 API。
api_keysarray视情况模型 API 密钥数组。建议放在 .security.yml 中。
api_basestring覆盖默认 API 地址
auth_methodstring认证方式(如 oauth
connect_modestring连接模式(如 grpcstdio
proxystring该模型 API 调用的 HTTP/SOCKS 代理
user_agentstringAPI 请求的自定义 User-Agent 请求头
request_timeoutint请求超时时间(秒),默认 120
rpmint速率限制 — 每分钟请求数(参见速率限制
config.json 中的 api_key

在配置 schema 2 中,config.json 里的 model_list[].api_key 会被忽略。请在 .security.yml 中使用 api_keys。旧版 V0/V1 配置中的 api_key 仅在迁移过程中会被合并。

model 前缀解析方式

  • openai/gpt-5.4 -> 协议是 openai,上游请求模型名是 gpt-5.4
  • lmstudio/openai/gpt-oss-20b -> 协议是 lmstudio,上游请求模型名是 openai/gpt-oss-20b
  • openrouter/openai/gpt-5.4 -> 协议是 openrouter,上游请求模型名是 openai/gpt-5.4

各提供商示例

OpenAI

{
"model_name": "gpt-5.4",
"model": "openai/gpt-5.4"
}

火山引擎(Doubao)

{
"model_name": "ark-code-latest",
"model": "volcengine/ark-code-latest"
}

Anthropic(Claude)

{
"model_name": "claude",
"model": "anthropic/claude-sonnet-4-6"
}

也可运行 picoclaw auth login --provider anthropic 粘贴 API Token。

OpenRouter

{
"model_name": "openrouter-gpt",
"model": "openrouter/openai/gpt-5.4"
}

LM Studio(本地部署)

{
"model_name": "lmstudio-local",
"model": "lmstudio/openai/gpt-oss-20b"
}

api_base 默认为 http://localhost:1234/v1。除非 LM Studio 开启了鉴权,否则无需 API Key。

Azure OpenAI

{
"model_name": "azure-gpt5",
"model": "azure/my-gpt5-deployment",
"api_base": "https://your-resource.openai.azure.com"
}

Ollama(本地部署)

{
"model_name": "llama3",
"model": "ollama/llama3"
}

Bedrock

{
"model_name": "bedrock-claude",
"model": "bedrock/us.anthropic.claude-sonnet-4-20250514-v1:0",
"api_base": "us-east-1"
}

自定义 OpenAI 兼容端点

{
"model_name": "my-proxy-model",
"model": "openai/custom-model",
"api_base": "https://my-proxy.com/v1"
}

模型级请求超时

{
"model_name": "slow-model",
"model": "openai/o1-preview",
"request_timeout": 300
}

负载均衡

为同一个 model_name 配置多个条目,PicoClaw 会自动轮询:

{
"model_list": [
{
"model_name": "gpt-5.4",
"model": "openai/gpt-5.4",
"api_base": "https://api1.example.com/v1"
},
{
"model_name": "gpt-5.4",
"model": "openai/gpt-5.4",
"api_base": "https://api2.example.com/v1"
}
]
}

从旧版 providers 迁移

providers 旧配置不属于配置 schema 2。当前仅保留对 V0/V1 老配置的迁移兼容:加载时会自动转换到 model_list。 在完整的 schema v2 配置文件中,请在顶层保留 "version": 2

旧配置(已废弃):

{
"providers": {
"zhipu": {
"api_key": "your-key",
"api_base": "https://open.bigmodel.cn/api/paas/v4"
}
},
"agents": {
"defaults": {
"provider": "zhipu",
"model_name": "glm-4.7"
}
}
}

新配置(推荐):

{
"model_list": [
{
"model_name": "glm-4.7",
"model": "zhipu/glm-4.7"
}
],
"agents": {
"defaults": {
"model_name": "glm-4.7"
}
}
}

详细迁移步骤请参考迁移指南

语音转文字

备注

Groq 提供免费语音转写(Whisper)。配置后,Telegram 语音消息将自动转文字。

{
"model_list": [
{
"model_name": "whisper",
"model": "groq/whisper-large-v3"
}
]
}