Pular para o conteúdo principal

Configuração de Modelos

Para uma experiência de setup mais intuitiva e eficiente, recomendamos configurar os modelos primeiro pela Web UI.

Web UI Model Setup

Você ainda pode gerenciar modelos manualmente no config.json quando precisar de automação ou deployment baseado em templates.

O PicoClaw usa uma abordagem de configuração centrada no modelo. Basta especificar vendor/model-id para conectar um protocolo de provedor.

Isso possibilita suporte multi-agente com seleção flexível de provedores:

  • Agentes diferentes, provedores diferentes: Cada agente pode usar seu próprio provedor de LLM
  • Fallback de modelos: Configure modelos primários e de fallback para resiliência
  • Balanceamento de carga: Distribua requisições entre múltiplos endpoints
  • Configuração centralizada: Gerencie todos os provedores em um único lugar

Vendors e Protocolos Suportados

VendorPrefixo modelAPI Base PadrãoProtocoloObter Chave de API
OpenAIopenai/https://api.openai.com/v1OpenAIObter Chave
Anthropicanthropic/https://api.anthropic.com/v1AnthropicObter Chave
Anthropic Messagesanthropic-messages/https://api.anthropic.com/v1Anthropic MessagesObter Chave
Azure OpenAIazure/, azure-openai/Endpoint Azure customizadoAzure OpenAIAzure Portal
AWS Bedrockbedrock/Região AWS ou endpoint de runtimeBedrockCredenciais AWS
Venice AIvenice/https://api.venice.ai/api/v1Compatível com OpenAIObter Chave
OpenRouteropenrouter/https://openrouter.ai/api/v1Compatível com OpenAIObter Chave
LiteLLMlitellm/http://localhost:4000/v1Compatível com OpenAIProxy local
LM Studiolmstudio/http://localhost:1234/v1Compatível com OpenAIOpcional (padrão local: sem chave)
Groqgroq/https://api.groq.com/openai/v1Compatível com OpenAIObter Chave
Zhipu AI (GLM)zhipu/https://open.bigmodel.cn/api/paas/v4Compatível com OpenAIObter Chave
Google Geminigemini/https://generativelanguage.googleapis.com/v1betaCompatível com OpenAIObter Chave
NVIDIAnvidia/https://integrate.api.nvidia.com/v1Compatível com OpenAIObter Chave
Ollamaollama/http://localhost:11434/v1Compatível com OpenAILocal (sem chave)
Moonshotmoonshot/https://api.moonshot.cn/v1Compatível com OpenAIObter Chave
ShengSuanYunshengsuanyun/https://router.shengsuanyun.com/api/v1Compatível com OpenAIObter Chave
DeepSeekdeepseek/https://api.deepseek.com/v1Compatível com OpenAIObter Chave
Cerebrascerebras/https://api.cerebras.ai/v1Compatível com OpenAIObter Chave
Vivgridvivgrid/https://api.vivgrid.com/v1Compatível com OpenAIObter Chave
VolcEnginevolcengine/https://ark.cn-beijing.volces.com/api/v3Compatível com OpenAIObter Chave
vLLMvllm/http://localhost:8000/v1Compatível com OpenAILocal
Qwen (CN)qwen/https://dashscope.aliyuncs.com/compatible-mode/v1Compatível com OpenAIObter Chave
Qwen (Intl)qwen-intl/https://dashscope-intl.aliyuncs.com/compatible-mode/v1Compatível com OpenAIObter Chave
Qwen (US)qwen-us/https://dashscope-us.aliyuncs.com/compatible-mode/v1Compatível com OpenAIObter Chave
Coding Plancoding-plan/https://coding-intl.dashscope.aliyuncs.com/v1Compatível com OpenAIObter Chave
Coding Plan (Anthropic)coding-plan-anthropic/https://coding-intl.dashscope.aliyuncs.com/apps/anthropicCompatível com AnthropicObter Chave
Mistralmistral/https://api.mistral.ai/v1Compatível com OpenAIObter Chave
Avianavian/https://api.avian.io/v1Compatível com OpenAIObter Chave
Minimaxminimax/https://api.minimaxi.com/v1Compatível com OpenAIObter Chave
LongCatlongcat/https://api.longcat.chat/openaiCompatível com OpenAIObter Chave
ModelScopemodelscope/https://api-inference.modelscope.cn/v1Compatível com OpenAIObter Chave
Novitanovita/https://api.novita.ai/openaiCompatível com OpenAIObter Chave
MiMomimo/https://api.xiaomimimo.com/v1Compatível com OpenAIObter Chave
Antigravityantigravity/Google CloudOAuthApenas OAuth
GitHub Copilotgithub-copilot/localhost:4321gRPC
Claude CLIclaude-cli/N/ACLIAuth local do CLI
Codex CLIcodex-cli/N/ACLIAuth local do CLI

Aliases de protocolo também são suportados, por exemplo: qwen-international/dashscope-intl, dashscope-us, alibaba-coding, qwen-coding, alibaba-coding-anthropic, copilot, claudecli, e codexcli.

Qualquer Modelo Compatível via API Base Customizada

Você não está limitado aos vendors listados acima. É possível usar openai/ ou anthropic/ com um api_base de terceiros para conectar qualquer modelo compatível com OpenAI ou Anthropic.

{
"model_name": "my-custom-model",
"model": "openai/my-custom-model",
"api_base": "https://custom-api.com/v1",
"api_keys": ["YOUR_API_KEY"]
}

Padrão de Configuração Recomendado

Na versão 2 do schema de configuração, mantenha a estrutura dos modelos em config.json e coloque as credenciais em .security.yml. Os snippets abaixo focam nos campos relacionados a modelos. Em um arquivo de configuração completo, mantenha o "version": 2 no nível superior.

{
"model_list": [
{
"model_name": "gpt-5.4",
"model": "openai/gpt-5.4"
},
{
"model_name": "claude-sonnet-4.6",
"model": "anthropic/claude-sonnet-4-6"
},
{
"model_name": "lmstudio-local",
"model": "lmstudio/openai/gpt-oss-20b"
}
],
"agents": {
"defaults": {
"model_name": "gpt-5.4"
}
}
}
# ~/.picoclaw/.security.yml
model_list:
gpt-5.4:0:
api_keys:
- "sk-openai-..."
claude-sonnet-4.6:0:
api_keys:
- "sk-ant-..."

Campos de Entrada do Modelo

CampoTipoObrigatórioDescrição
model_namestringSimAlias usado em agents.defaults.model_name
modelstringSimFormato vendor/model-id. O prefixo vendor/ é usado apenas para resolução de protocolo/API base e não é enviado ao upstream como está.
api_keysarrayDependeChaves de API para este modelo. Sempre que possível, coloque as credenciais em .security.yml.
api_basestringNãoSobrescreve a URL base da API padrão
auth_methodstringNãoMétodo de autenticação (ex.: oauth)
connect_modestringNãoModo de conexão (ex.: grpc, stdio)
proxystringNãoProxy HTTP/SOCKS para as chamadas de API deste modelo
user_agentstringNãoHeader User-Agent customizado para requisições da API
request_timeoutintNãoTimeout de requisição em segundos (padrão: 120)
rpmintNãoLimite de taxa — requisições por minuto (veja Rate Limiting)
api_key no config.json

Na versão 2 do schema de configuração, model_list[].api_key em config.json é ignorado. Use .security.yml com api_keys para credenciais de modelos. Valores legados de api_key só são mesclados durante a migração de V0/V1.

Como Funciona a Resolução do Prefixo model

  • openai/gpt-5.4 -> protocolo é openai, modelo enviado ao upstream é gpt-5.4
  • lmstudio/openai/gpt-oss-20b -> protocolo é lmstudio, modelo enviado ao upstream é normalizado para openai/gpt-oss-20b
  • openrouter/openai/gpt-5.4 -> protocolo é openrouter, modelo enviado ao upstream é openai/gpt-5.4

Exemplos por Vendor

OpenAI

{
"model_name": "gpt-5.4",
"model": "openai/gpt-5.4"
}

VolcEngine (Doubao)

{
"model_name": "ark-code-latest",
"model": "volcengine/ark-code-latest"
}

Anthropic (Claude)

{
"model_name": "claude",
"model": "anthropic/claude-sonnet-4-6"
}

Execute picoclaw auth login --provider anthropic para colar seu token de API.

OpenRouter

{
"model_name": "openrouter-gpt",
"model": "openrouter/openai/gpt-5.4"
}

LM Studio (Local)

{
"model_name": "lmstudio-local",
"model": "lmstudio/openai/gpt-oss-20b"
}

api_base tem como padrão http://localhost:1234/v1. A chave de API é opcional, a menos que o seu servidor LM Studio tenha autenticação habilitada.

Azure OpenAI

{
"model_name": "azure-gpt5",
"model": "azure/my-gpt5-deployment",
"api_base": "https://your-resource.openai.azure.com"
}

Ollama (Local)

{
"model_name": "llama3",
"model": "ollama/llama3"
}

Bedrock

{
"model_name": "bedrock-claude",
"model": "bedrock/us.anthropic.claude-sonnet-4-20250514-v1:0",
"api_base": "us-east-1"
}

Endpoint Customizado Compatível com OpenAI

{
"model_name": "my-proxy-model",
"model": "openai/custom-model",
"api_base": "https://my-proxy.com/v1"
}

Timeout de Requisição por Modelo

{
"model_name": "slow-model",
"model": "openai/o1-preview",
"request_timeout": 300
}

Balanceamento de Carga

Configure múltiplas entradas com o mesmo model_name e o PicoClaw fará round-robin entre elas:

{
"model_list": [
{
"model_name": "gpt-5.4",
"model": "openai/gpt-5.4",
"api_base": "https://api1.example.com/v1"
},
{
"model_name": "gpt-5.4",
"model": "openai/gpt-5.4",
"api_base": "https://api2.example.com/v1"
}
]
}

Migração do providers Legado

O providers legado não faz parte da versão 2 do schema de configuração. O PicoClaw apenas mantém compatibilidade de migração para configurações V0/V1 antigas e as converte para model_list durante o carregamento. Em um arquivo de configuração schema v2 completo, mantenha "version": 2 no nível superior.

Configuração Antiga (descontinuada):

{
"providers": {
"zhipu": {
"api_key": "your-key",
"api_base": "https://open.bigmodel.cn/api/paas/v4"
}
},
"agents": {
"defaults": {
"provider": "zhipu",
"model_name": "glm-4.7"
}
}
}

Configuração Nova (recomendada):

{
"model_list": [
{
"model_name": "glm-4.7",
"model": "zhipu/glm-4.7"
}
],
"agents": {
"defaults": {
"model_name": "glm-4.7"
}
}
}

Consulte o Migration Guide completo para mais detalhes.

Transcrição de Voz

Nota

O Groq oferece transcrição de voz gratuita via Whisper. Se configurado, mensagens de voz do Telegram serão transcritas automaticamente.

{
"model_list": [
{
"model_name": "whisper",
"model": "groq/whisper-large-v3"
}
]
}