튜토리얼 카테고리 Skills 소개
ZH EN JA KO
모델 연결

OpenClaw에서 Claude API 키 설정하는 방법

· 8 분 소요

Claude를 AI 모델로 선택하는 이유

OpenClaw이 지원하는 다양한 AI 모델 중에서, Anthropic의 Claude 시리즈는 뛰어난 한국어 이해 능력, 긴 컨텍스트 윈도우, 안정적인 출력 품질로 인해 많은 사용자에게 첫 번째 선택지가 되고 있습니다. 특히 일상 대화, 텍스트 분석, 코드 보조 등의 사용 사례에서 Claude의 성능은 매우 신뢰할 수 있습니다.

이 글에서는 Claude API 키를 발급받고 OpenClaw에서 설정을 완료하는 방법을 자세히 안내합니다.

Anthropic API 키 발급

먼저 Anthropic 공식 사이트에서 계정을 등록하고 API 키를 발급받아야 합니다:

  1. Anthropic Console에 접속합니다
  2. 계정을 등록하거나 로그인합니다
  3. API Keys 페이지로 이동합니다
  4. Create Key를 클릭하여 새 API 키를 생성합니다
  5. 키에 이름을 지정합니다. 예: openclaw-home (관리가 편합니다)
  6. 생성된 키를 복사합니다 (sk-ant-으로 시작). 안전하게 보관하세요. 페이지를 닫으면 다시 볼 수 없습니다

사용을 시작하기 전에 Anthropic Console에서 결제 수단을 추가하고 충전해야 합니다. Claude API는 사용량 기반으로 과금되며, 새로 등록한 계정에는 보통 테스트용 무료 크레딧이 제공됩니다.

OpenClaw에서 Claude 설정하기

방법 1: Onboard 마법사로 설정

OpenClaw을 처음 설정하는 경우, openclaw onboard 실행 시 AI 모델 공급자를 선택하는 단계가 나타납니다. Anthropic을 선택한 후 API 키를 붙여넣기만 하면 됩니다.

방법 2: 설정 파일 직접 편집

이미 초기 설정을 완료한 경우, 설정 파일 ~/.config/openclaw/openclaw.json5를 직접 편집할 수 있습니다:

{
  providers: {
    anthropic: {
      enabled: true,
      apiKey: "sk-ant-api03-xxxxxxxxxxxx",
      defaultModel: "claude-sonnet-4-20250514",
      // 선택사항: 최대 토큰 수 설정
      maxTokens: 4096
    }
  },

  // 전역 기본 공급자 설정
  defaultProvider: "anthropic"
}

방법 3: 환경 변수로 설정

키를 설정 파일에 평문으로 저장하고 싶지 않다면 (권장하는 보안 방식), 환경 변수를 통해 전달할 수 있습니다:

export ANTHROPIC_API_KEY="sk-ant-api03-xxxxxxxxxxxx"

그런 다음 설정 파일에서 apiKey 필드를 생략하면, OpenClaw이 자동으로 환경 변수를 읽어옵니다:

{
  providers: {
    anthropic: {
      enabled: true,
      defaultModel: "claude-sonnet-4-20250514"
    }
  }
}

Docker로 배포하는 경우에는 키를 .env 파일에 저장하는 것이 가장 좋은 방법입니다.

사용 가능한 Claude 모델

현재 OpenClaw에서 사용할 수 있는 Claude 모델은 다음과 같습니다:

모델 식별자 특징 적합한 사용 사례
claude-sonnet-4-20250514 성능과 비용의 균형 일상 대화, 범용 작업
claude-opus-4-20250514 최강의 추론 능력 복잡한 분석, 장문 작성
claude-haiku-3-20250307 빠른 속도, 낮은 비용 간단한 질의응답, 고빈도 호출

일상적으로는 Sonnet을 사용하고, 복잡한 작업이 필요할 때 Opus로 전환하며, 지연시간에 민감하거나 호출량이 많은 경우 Haiku를 사용하는 것을 권장합니다.

설정 파일에서 기본 모델을 설정하고, 대화 중에 동적으로 전환할 수도 있습니다:

{
  providers: {
    anthropic: {
      enabled: true,
      defaultModel: "claude-sonnet-4-20250514",
      models: {
        "claude-opus-4-20250514": {
          maxTokens: 8192
        },
        "claude-haiku-3-20250307": {
          maxTokens: 2048
        }
      }
    }
  }
}

설정 적용 확인

설정을 완료한 후 OpenClaw Gateway를 재시작합니다:

openclaw restart

그런 다음 Dashboard에서 테스트 메시지를 보내봅니다:

openclaw dashboard

대화창에 아무 내용이나 입력하여 Claude의 답변을 받으면 설정이 성공한 것입니다.

커맨드라인에서 바로 테스트할 수도 있습니다:

openclaw chat "안녕하세요, 한 문장으로 자기소개를 해주세요"

"저는 Anthropic이 개발한 AI 어시스턴트 Claude입니다"와 같은 답변이 반환되면 모든 준비가 완료된 것입니다.

비용 관리

Claude API는 토큰 단위로 과금되며, 입력과 출력의 요금이 다릅니다. 예상치 못한 높은 비용을 방지하기 위해 다음 조치를 권장합니다:

1. Anthropic Console에서 사용량 한도 설정:

Console에 로그인하여 Settings > Limits에서 월별 사용량 상한을 설정합니다. 상한에 도달하면 API가 계속 과금하는 대신 오류를 반환합니다.

2. OpenClaw에서 단일 응답 길이 제한:

{
  providers: {
    anthropic: {
      maxTokens: 2048  // 단일 응답을 최대 2048 토큰으로 제한
    }
  }
}

3. AI를 트리거할 수 있는 사용자 제한:

채널 설정에서 화이트리스트를 설정하여, 관계없는 사람이 채팅 플랫폼을 통해 API 사용량을 소비하지 않도록 합니다.

4. 정기적으로 사용량 확인:

Anthropic Console의 Usage 페이지에서 자세한 호출 통계와 비용 내역을 확인할 수 있습니다.

다중 공급자 설정

OpenClaw은 여러 공급자를 동시에 설정하는 것을 지원합니다. Claude를 주력 모델로 사용하면서, Ollama를 백업으로 설정할 수 있습니다 (로컬 실행, 비용 무료):

{
  providers: {
    anthropic: {
      enabled: true,
      defaultModel: "claude-sonnet-4-20250514"
    },
    ollama: {
      enabled: true,
      defaultModel: "llama3"
    }
  },
  defaultProvider: "anthropic",
  fallbackProvider: "ollama"
}

Claude API를 사용할 수 없을 때, OpenClaw이 자동으로 Ollama 로컬 모델로 전환하여 서비스 중단을 방지합니다.

마무리

Claude는 OpenClaw에서 가장 좋은 경험을 제공하는 모델 중 하나이며, 설정 과정도 매우 간단합니다. 환경 변수로 키를 관리하고, 사용량 한도를 합리적으로 설정하며, Ollama를 백업으로 구성하면, 고품질이면서도 관리 가능한 개인 AI 어시스턴트를 구축할 수 있습니다. 궁금한 점이 있으면 OpenClaw 공식 문서를 참고하거나 OpenClaw GitHub 저장소에서 도움을 찾으세요. 더 많은 모델 연결 방법은 OpenClaw을 방문해 주세요.

OpenClaw는 무료 오픈소스 개인 AI 어시스턴트로, WhatsApp, Telegram, Discord 등 다양한 플랫폼을 지원합니다