모델 프로바이더
OpenClaw는 다양한 LLM 프로바이더를 사용할 수 있습니다. 하나를 선택하고 인증한 후 기본 모델을 provider/model 형식으로 설정하십시오.
빠른 시작 (두 단계)
- 프로바이더 인증 (보통
openclaw onboard를 통해). - 기본 모델 설정:
json5
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}지원 프로바이더 (스타터 세트)
- Alibaba Model Studio
- Anthropic (API + Claude CLI)
- Amazon Bedrock
- BytePlus (국제)
- Chutes
- ComfyUI
- Cloudflare AI Gateway
- fal
- Fireworks
- GLM 모델
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- OpenAI (API + Codex)
- OpenCode (Zen + Go)
- OpenRouter
- Qianfan
- Qwen
- Runway
- StepFun
- Synthetic
- Vercel AI Gateway
- Venice (Venice AI)
- xAI
- Z.AI
추가 번들 프로바이더 변형
anthropic-vertex- Google Vertex 자격 증명이 사용 가능한 경우 암묵적 Anthropic on Google Vertex 지원; 별도 온보딩 인증 선택 없음copilot-proxy- 로컬 VS Code Copilot Proxy 브리지;openclaw onboard --auth-choice copilot-proxy사용google-gemini-cli- 비공식 Gemini CLI OAuth 흐름; 로컬gemini설치 필요 (brew install gemini-cli또는npm install -g @google/gemini-cli); 기본 모델google-gemini-cli/gemini-3-flash-preview;openclaw onboard --auth-choice google-gemini-cli또는openclaw models auth login --provider google-gemini-cli --set-default사용
전체 프로바이더 카탈로그(xAI, Groq, Mistral 등) 및 고급 구성에 대해서는 모델 프로바이더를 참조하십시오.