Pular para o conteúdo principal

Provedores

O PicoClaw suporta várias famílias de protocolo de LLM através de model_list.

Para uma experiência de configuração mais fluida e intuitiva, recomendamos usar a Web UI como forma principal de configurar modelos.

Configuração de modelo na Web UI

Provedores suportados

ProvedorFinalidadeObter chave de API
OpenAIModelos GPTplatform.openai.com
AnthropicModelos Claudeconsole.anthropic.com
Anthropic MessagesAPI Anthropic Messages nativaconsole.anthropic.com
Venice AIModelos Venice AIvenice.ai
Google GeminiModelos Geminiaistudio.google.com
Zhipu AIModelos GLM (CN)bigmodel.cn
Z.AIZ.AI Coding Plan (GLM)z.ai
DeepSeekModelos DeepSeekplatform.deepseek.com
GroqInferência rápida + Whisperconsole.groq.com
OpenRouterAcesso a todos os modelosopenrouter.ai
MoonshotModelos Kimiplatform.moonshot.cn
QwenTongyi Qianwendashscope.console.aliyun.com
NVIDIAModelos NVIDIA AIbuild.nvidia.com
MistralModelos Mistralconsole.mistral.ai
AvianModelos Avianavian.io
LongCatModelos LongCatlongcat.chat
ModelScopeModelos ModelScopemodelscope.cn
NovitaModelos Novitanovita.ai
VivgridModelos hospedados na Vivgridvivgrid.com
ShengSuanYunModelos ShengSuanYunrouter.shengsuanyun.com
Xiaomi MiMoModelos MiMoplatform.xiaomimimo.com
OllamaServidor de modelos localLocal (sem chave)
LM StudioServidor de modelos local (compatível com OpenAI)Local (sem chave por padrão)
vLLMServidor de modelos local (compatível com OpenAI)Local
LiteLLMProxy LiteLLMProxy local
CerebrasInferência rápidacerebras.ai
VolcEngineModelos Doubaoconsole.volcengine.com
Azure OpenAIModelos OpenAI hospedados na AzureAzure Portal
AWS BedrockModelos hospedados no BedrockAWS Console
AntigravityGoogle Cloud Code AssistApenas OAuth
MinimaxModelos MiniMaxplatform.minimaxi.com
GitHub CopilotModelos via bridge do Copilot
Claude CLI / Codex CLIBridges para CLIs locais de modelosAutenticação local da CLI

Configuração rápida

{
"model_list": [
{
"model_name": "my-model",
"model": "openai/gpt-5.4",
"api_keys": ["sk-..."]
}
],
"agents": {
"defaults": {
"model_name": "my-model"
}
}
}

Veja Configuração de modelos para detalhes completos.

Exemplo Z.AI Coding Plan

Z.AI e Zhipu AI são duas marcas do mesmo provedor. Para o Z.AI Coding Plan, use o prefixo de modelo openai com o api base do Z.AI:

{
"model_name": "glm-4.7",
"model": "openai/glm-4.7",
"api_keys": ["your-z.ai-key"],
"api_base": "https://api.z.ai/api/coding/paas/v4"
}

Se o endpoint padrão da Zhipu retornar 429 (saldo insuficiente), o endpoint do Z.AI Coding Plan pode ter saldo disponível, já que eles usam cobrança separada.

Transcrição de voz

Você pode configurar um modelo dedicado para transcrição de áudio com voice.model_name. Isso permite reaproveitar provedores multimodais existentes que aceitam entrada de áudio, em vez de depender apenas do Groq Whisper.

Se voice.model_name não estiver configurado, o PicoClaw cai automaticamente para a transcrição da Groq quando há uma chave de API da Groq disponível.

{
"voice": {
"model_name": "voice-gemini",
"echo_transcription": false
}
}

Cascata de failover de modelos

O PicoClaw suporta failover automático quando você configura um modelo principal junto com modelos de fallback. O runtime tenta o próximo candidato em caso de falhas reaproveitáveis, como HTTP 429, erros de cota/limitação de taxa e timeouts. Também aplica rastreamento de cooldown por candidato para evitar repetir imediatamente um destino que acabou de falhar.

{
"model_list": [
{
"model_name": "qwen-main",
"model": "openai/qwen3.5:cloud",
"api_base": "https://api.example.com/v1",
"api_keys": ["sk-main"]
},
{
"model_name": "deepseek-backup",
"model": "deepseek/deepseek-chat",
"api_keys": ["sk-backup-1"]
},
{
"model_name": "gemini-backup",
"model": "gemini/gemini-2.5-flash",
"api_keys": ["sk-backup-2"]
}
],
"agents": {
"defaults": {
"model": {
"primary": "qwen-main",
"fallbacks": ["deepseek-backup", "gemini-backup"]
}
}
}
}

Se você usar failover por chave para o mesmo modelo (várias chaves em api_keys), o PicoClaw também consegue passar por candidatos adicionais lastreados por chave antes de partir para os backups entre modelos.

Provedores especiais

  • Antigravity — Google Cloud Code Assist, usa OAuth em vez de chaves de API
  • Groq — também oferece transcrição de voz gratuita (Whisper) para mensagens de voz no Telegram