적합한 AI 모델 공급자를 선택하는 것은 지능형 어시스턴트를 구축하는 핵심 단계입니다. 셀프 호스팅 AI 어시스턴트 플랫폼인 OpenClaw은 현재 14개 모델 공급자의 연결을 지원하며, 클라우드 상용 모델부터 로컬 오픈소스 모델까지의 완전한 생태계를 아우릅니다. 본 문서에서는 모든 사용 가능한 공급자의 설정 방법과 다중 계정 인증, 장애 조치 등 고급 기능을 체계적으로 소개합니다.
지원 공급자 목록
OpenClaw이 현재 지원하는 14개 공급자:
| 공급자 | 유형 | 일반적 용도 |
|---|---|---|
| Anthropic | 클라우드 상용 모델 | Claude 시리즈, 강력한 추론 능력 |
| OpenAI | 클라우드 상용 모델 | GPT 시리즈, 뛰어난 범용 능력 |
| Amazon Bedrock | 클라우드 호스팅 | AWS 생태계 통합 |
| OpenRouter | 모델 게이트웨이 | 하나의 Key로 여러 모델 접근 |
| Ollama | 로컬 추론 | 무료 오픈소스 모델 실행 |
| GLM | 클라우드 상용 모델 | 중국어 능력 우수 |
| Qwen | 클라우드 상용 모델 | 알리바바 통이치엔원 시리즈 |
| MiniMax | 클라우드 상용 모델 | 긴 텍스트 능력 강점 |
| Moonshot AI | 클라우드 상용 모델 | Kimi, 긴 컨텍스트 처리 |
| Xiaomi | 클라우드 상용 모델 | 샤오미 MiLM 시리즈 |
| Venice AI | 프라이버시 추론 | 로그 없는 프라이버시 우선 추론 |
| OpenCode Zen | 클라우드 상용 모델 | 코드 생성 전용 |
| Z.AI | 클라우드 상용 모델 | 범용 멀티모달 모델 |
| Deepgram | 음성-텍스트 변환 | 오디오 전사 서비스 |
처음 13개 공급자는 대규모 언어 모델 서비스를 제공하고, Deepgram은 음성-텍스트 변환(Transcription) 기능에 특화되어 있습니다.
빠른 시작: onboard 명령으로 설정
신규 사용자에게 가장 간단한 방법은 인터랙티브 가이드 명령을 사용하는 것입니다:
openclaw onboard
이 명령은 공급자 선택과 API Key 설정을 단계별로 안내합니다. 시스템이 입력한 Key의 유효성을 자동으로 감지하고 해당 설정 파일을 생성합니다.
기본 모델 설정
onboard 완료 후 OpenClaw은 설정 파일에 기본 모델 설정을 생성합니다. 핵심 설정 구조:
{
"agents": {
"defaults": {
"model": {
"primary": "anthropic/claude-opus-4-5"
}
}
}
}
primary 필드는 주 모델을 지정하며, 형식은 공급자/모델명입니다. OpenClaw은 기본적으로 Anthropic의 Claude Opus 4.5를 주력 모델로 권장하며, 이는 현재 종합 능력이 가장 뛰어난 선택 중 하나입니다.
필요에 따라 다른 모델로 전환할 수 있습니다:
{
"agents": {
"defaults": {
"model": {
"primary": "openai/gpt-4o"
}
}
}
}
공급자 무관 모델 전환
OpenClaw은 공급자 무관(Provider-Agnostic) 모델 전환 메커니즘을 채택합니다. 비즈니스 로직을 수정하지 않고 설정의 모델 식별자만 변경하여 다른 공급자의 모델로 전환할 수 있습니다.
예를 들어 Anthropic에서 Ollama 로컬 모델로 전환하려면 설정 한 줄만 수정하면 됩니다:
{
"agents": {
"defaults": {
"model": {
"primary": "ollama/llama3.1"
}
}
}
}
모든 공급자가 통합된 인터페이스 추상화 레이어를 공유하므로 애플리케이션 레이어 코드를 변경할 필요가 없습니다.
프라이버시 우선 방안: Venice AI
데이터 프라이버시에 엄격한 요구사항이 있다면 Venice AI는 주목할 만한 선택입니다. Venice는 로그 없는 추론 서비스를 제공하며, 대화 데이터가 저장되거나 학습에 사용되지 않습니다.
Venice AI에서 현재 사용 가능한 모델:
{
"agents": {
"defaults": {
"model": {
"primary": "venice/llama-3.3-70b"
}
}
}
}
Venice는 의료 상담, 법률 문서 등 프라이버시 보호 요구사항이 높은 민감한 비즈니스 시나리오에 적합합니다.
OpenRouter로 더 많은 공급자 확장
네이티브 지원 14개 공급자 외에도 OpenRouter를 통해 더 많은 모델 제공자에 간접적으로 접근할 수 있습니다:
- xAI - Grok 시리즈 모델
- Groq - 초저지연 추론 가속
- Mistral - 유럽 오픈소스 모델 선도자
하나의 OpenRouter API Key만으로 이러한 공급자의 모델을 통합 관리할 수 있으며, 별도로 등록하고 여러 키를 관리할 필요가 없습니다.
다중 계정 인증과 장애 조치
프로덕션 환경에서 단일 API 계정에 의존하면 명백한 위험이 있습니다. OpenClaw은 동일 공급자에 대해 여러 인증 프로필(Profile)을 설정하여 자동 장애 조치를 구현하는 것을 지원합니다.
다중 계정 설정
{
"providers": {
"anthropic": {
"profiles": [
{
"name": "primary",
"apiKey": "sk-ant-xxxxx-primary"
},
{
"name": "backup",
"apiKey": "sk-ant-xxxxx-backup"
}
]
}
}
}
장애 조치와 쿨다운 추적
주 프로필의 API 호출이 실패하면(속도 제한, 잔액 부족, 서비스 다운 등) OpenClaw이 자동으로 다음 사용 가능한 프로필로 전환합니다. 시스템에는 쿨다운 추적(Cooldown Tracking) 메커니즘이 내장되어 있습니다:
- 특정 Profile 실패 후 쿨다운 상태로 표시
- 쿨다운 기간 동안 해당 Profile은 선택되지 않음
- 쿨다운 시간 종료 후 자동으로 사용 가능 상태 복원
- 여러 Profile이 순서대로 순환하여 서비스 연속성 보장
이 메커니즘은 높은 동시성이나 장시간 운영 시나리오에서 특히 가치가 있으며, 단일 계정 문제로 인한 전체 서비스 중단을 효과적으로 방지합니다.
커뮤니티 도구: Claude Max API Proxy
이미 Claude Max 구독을 보유한 사용자를 위해 커뮤니티에서 Claude Max API Proxy라는 도구를 개발했습니다. Max 구독을 호환 API 인터페이스로 변환하여 OpenClaw이 추가 API 크레딧 구매 없이 Max 구독으로 직접 Claude 모델을 호출할 수 있게 합니다.
이것은 커뮤니티가 유지하는 서드파티 도구이므로 사용 전 안정성과 보안성을 평가하세요.
음성-텍스트 변환: Deepgram
14개 공급자 중 Deepgram은 특별합니다. 대규모 언어 모델을 제공하지 않고 음성-텍스트 변환(Speech-to-Text)에 특화되어 있습니다. OpenClaw 어시스턴트가 음성 메시지를 처리해야 한다면 Deepgram을 전사 서비스 공급자로 설정할 수 있습니다:
{
"transcription": {
"provider": "deepgram",
"apiKey": "your-deepgram-api-key"
}
}
선택 권장사항
14개 공급자 중 어떤 것을 선택할지에 대한 실용적인 권장사항:
- 최상의 성능 추구:
anthropic/claude-opus-4-5또는openai/gpt-4o선택 - 프라이버시 보호 중시: Venice AI 시리즈 모델 선택
- 무료 운영: Ollama로 로컬 오픈소스 모델 연결
- 다중 모델 유연한 전환 필요: OpenRouter를 통합 게이트웨이로 선택
- 중국어 시나리오 최적화: GLM 또는 Qwen 선택
- 음성 기능 필요: Deepgram을 추가 전사 서비스로 설정
어떤 공급자를 선택하든 OpenClaw의 공급자 무관 아키텍처는 언제든지 전환할 수 있도록 보장하며, 특정 플랫폼에 종속되지 않습니다. 기본 Anthropic 설정부터 시작하고, 실제 필요에 따라 점진적으로 더 많은 공급자와 장애 조치 설정을 추가하는 것을 권장합니다.