오픈클로 AI 모델 연결 가이드 – 제미나이 무료 연동부터 클로드, GPT, 딥시크까지

오픈클로를 처음 설치하면 가장 먼저 부딪히는 질문이 있다. “어떤 AI 모델을 연결해야 하지?” 온보딩 위저드에서 Anthropic, OpenAI, Google, DeepSeek 등 선택지가 쭉 나오는데, 각각 뭐가 다르고, 비용은 얼마나 들고, 내 용도에는 뭐가 맞는지 처음에는 감이 안 온다.

나도 그랬다. 처음에는 무조건 제일 좋다는 클로드 Opus를 연결했다가, 한 달 API 비용을 보고 깜짝 놀랐다. 하트비트 점검이나 단순 알림 같은 가벼운 작업에도 최상위 모델이 돌아가고 있었던 거다. 그 뒤로 모델별 특성을 공부하고 용도에 맞게 나눠서 쓰기 시작했더니, 성능은 비슷하게 유지하면서 비용이 절반 이하로 줄었다.

이 글에서는 오픈클로에서 지원하는 주요 AI 모델 제공자 다섯 곳의 연결 방법을 구체적으로 다루고, 모델별 장단점과 비용 구조, 그리고 여러 모델을 조합해서 비용을 최적화하는 실전 전략까지 정리한다. 오픈클로가 아직 생소하다면 오픈클로 완벽 가이드부터 읽어보면 좋겠다.

오픈클로의 모델 연결 구조를 먼저 이해하자

오픈클로의 핵심 강점 중 하나가 모델 비종속성이다. 특정 AI 제공자에 묶이지 않고, API 키만 있으면 어떤 모델이든 갈아끼울 수 있다. 오늘은 클로드가 성능이 좋으니까 클로드를 쓰다가, 내일 GPT 쪽이 업데이트되면 바로 전환할 수 있다. 이건 빅테크 플랫폼에 종속되는 일반 AI 서비스와 결정적으로 다른 점이다.

오픈클로가 모델 제공자를 인식하는 우선순위가 있다. 여러 개의 API 키가 동시에 설정되어 있으면, Anthropic이 가장 높고, 그다음이 OpenAI, OpenRouter, Google Gemini, Groq, Mistral 순으로 이어진다. 이 우선순위는 기본 모델을 자동 선택할 때만 적용되고, 설정 파일에서 직접 지정하면 원하는 모델을 자유롭게 쓸 수 있다.

모델을 연결하는 방법은 크게 두 가지다. 첫째는 온보딩 위저드를 쓰는 방법이고, 둘째는 설정 파일을 직접 편집하는 방법이다. 처음이라면 위저드가 편하고, 멀티 모델 구성처럼 세밀한 설정이 필요하면 설정 파일을 직접 만지는 게 낫다. 이미 온보딩을 마쳤더라도 다음 명령으로 언제든 모델 설정을 변경할 수 있다.

openclaw configure

이 명령을 실행하면 대화형 설정 위저드가 다시 열리면서 모델, 채널, 스킬 등을 변경할 수 있다.

제미나이(Gemini) – 무료로 시작하는 가장 현실적인 선택

비용 부담 없이 오픈클로를 체험하고 싶다면 구글의 제미나이가 정답이다. Google AI Studio에서 무료 API 키를 발급받을 수 있고, 신용카드 등록 없이도 바로 사용 가능하다. 무료 티어의 제한은 Gemini Flash 기준 분당 15회 요청, 하루 1,000회 요청 수준인데, 개인 사용이나 테스트 용도로는 충분하다.

연결 방법은 간단하다. 먼저 aistudio.google.com에 접속해서 구글 계정으로 로그인한다. “Get API Key” 또는 “API 키” 섹션에서 새 키를 생성하고 복사한다. 그다음 터미널에서 다음 명령을 실행한다.

openclaw onboard --auth-choice google-api-key

API 키를 입력하라는 화면이 나오면 복사한 키를 붙여넣는다. 또는 환경변수로 설정할 수도 있다.

export GOOGLE_API_KEY="AIza여기에키를넣는다"

설정 파일에서 직접 지정하려면 ~/.openclaw/openclaw.json을 열어서 다음과 같이 추가한다.

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "google/gemini-3-flash-preview"
      }
    }
  }
}

제미나이의 강점은 비용 대비 성능이다. 특히 Gemini 3 Pro는 200만 토큰이라는 압도적인 컨텍스트 윈도우를 갖고 있어서, 대용량 코드베이스를 분석하거나 긴 문서를 처리할 때 유리하다. 단점은 코드 생성에서 클로드나 GPT에 비해 일관성이 떨어지고, 안전 필터가 다소 공격적으로 작동하는 경우가 있다는 점이다. 비용이 가장 걱정되는 사람에게는 제미나이가 첫 번째 선택지로 적합하다.

한 가지 주의할 점이 있다. 오픈클로에서 제미나이를 쓸 때 Gemini CLI OAuth 방식도 있는데, 이건 비공식 연동이라 구글 계정에 제한이 걸릴 수 있다는 보고가 있다. 공식 문서에서도 “중요하지 않은 계정으로 진행하라”고 권고하고 있으니, API 키 방식을 쓰는 게 안전하다. 또한 무료 티어에서 프로덕션 수준의 사용량이 필요하다면 Google Cloud Console에서 결제를 활성화하면 쿼타가 크게 늘어난다. 무료로 시작해서, 사용량이 올라가면 그때 유료로 전환하는 흐름이 가장 합리적이다.

클로드(Claude) – 커뮤니티가 가장 많이 추천하는 모델

오픈클로 커뮤니티에서 가장 많이 쓰이는 모델이 Anthropic의 클로드다. 공식 문서에서도 “가장 안전하고 권장되는 경로”라고 명시하고 있다. 특히 코딩 작업과 복잡한 지시 처리에서 안정적인 성능을 보여주고, 프롬프트 인젝션 저항력도 가장 높은 편이다. 외부 콘텐츠를 많이 처리하는 오픈클로 특성상, 프롬프트 인젝션 저항력은 단순 성능 이상의 의미가 있다.

연결 방법은 이렇다. console.anthropic.com에서 API 키를 발급받는다. 터미널에서 온보딩 위저드를 실행하거나, 환경변수로 설정한다.

export ANTHROPIC_API_KEY="sk-ant-여기에키를넣는다"

모델 선택에서는 세 가지 옵션이 있다. Claude Opus 4.6은 최고 성능이지만 비용이 Sonnet의 5~8배다. Claude Sonnet 4.6은 성능과 비용의 균형이 가장 좋아서 대부분의 사용자에게 추천된다. Claude Haiku 4.5는 가장 빠르고 저렴하지만 복잡한 추론에서는 한계가 있다.

실전에서 내가 추천하는 조합은 이렇다. 메인 작업에는 Sonnet을 쓰고, 하트비트 점검이나 단순 분류 같은 가벼운 작업에는 Haiku를 할당한다. Opus는 정말 깊은 분석이 필요할 때만 꺼내 쓴다. 이렇게 하면 Opus만 쓸 때 대비 비용이 70% 이상 줄어든다.

클로드의 단점은 피크 시간대에 529 과부하 에러가 가끔 발생한다는 점이다. 이럴 때를 대비해서 폴백(fallback) 모델을 설정해두는 게 좋다. 폴백 설정 방법은 아래 멀티 모델 전략 섹션에서 다룬다.

GPT(OpenAI) – 가장 성숙한 생태계

OpenAI의 GPT 시리즈는 가장 오래되고 안정적인 API 생태계를 갖고 있다. 도구 생태계가 가장 풍부하고, 추론 속도가 빠르다. 오픈클로에서는 GPT-5.2, GPT-4o, GPT-4o-mini 등을 사용할 수 있다.

연결 방법은 다른 제공자와 동일한 패턴이다.

export OPENAI_API_KEY="sk-여기에키를넣는다"

GPT-4o-mini는 가격 대비 성능이 뛰어난 경제적 선택이다. 하트비트나 단순 분류 작업에 특히 적합하다. GPT-4o는 범용 작업에서 안정적이고, 멀티모달(이미지 입력) 지원도 강점이다. GPT-5.2는 최신 프론티어 모델로 복잡한 추론에서 강하지만 비용이 높다.

솔직히 말하면, 오픈클로 환경에서 GPT와 클로드를 직접 비교했을 때, 코딩과 도구 호출 정확도에서는 클로드가 약간 앞서는 느낌이다. 하지만 일반적인 대화와 정보 정리, 그리고 안정적인 API 응답 속도에서는 GPT가 더 일관적이다. 어떤 모델이 “더 좋다”고 단정하기보다는, 작업 유형에 따라 다르다고 보는 게 정확하다.

참고로 OpenAI는 최근 Codex OAuth를 통한 연결도 지원하기 시작했다. 기존 OpenAI 구독이 있다면 별도 API 키 없이 OAuth 인증으로 바로 연결할 수 있는 방식인데, 오픈클로에서도 공식 지원한다. 단, 이 방식은 모델 접근 범위가 구독 플랜에 따라 달라지니 API 키 방식이 더 유연하다. 어떤 방식이든 한 번 연결해두면 이후에는 텔레그램이나 슬랙에서 자연어로 대화하는 것만으로 에이전트가 작동하니까, 초기 설정에만 시간을 투자하면 된다.

딥시크(DeepSeek)와 로컬 모델 – 비용 제로의 세계

API 비용이 전혀 부담되지 않는 선택지도 있다. 중국의 딥시크(DeepSeek)는 오픈소스 모델 중 최고 수준의 성능을 보여주고, 클라우드 API 비용도 다른 제공자 대비 현저히 저렴하다. 오픈클로에서는 환경변수 하나로 연결된다.

export DEEPSEEK_API_KEY="여기에키를넣는다"

비용을 완전히 0으로 만들고 싶다면 Ollama를 통한 로컬 모델 실행이 있다. Ollama는 로컬 PC에서 오픈소스 LLM을 돌릴 수 있게 해주는 도구다. 오픈클로와 연동하면 API 호출 없이 완전히 오프라인으로 에이전트를 운영할 수 있다.

export OLLAMA_BASE_URL="http://localhost:11434"

이 설정 하나면 Ollama에서 돌리고 있는 모델을 오픈클로가 자동으로 인식한다. Llama 3.3 70B 같은 모델을 로컬에서 돌리면 API 비용이 말 그대로 0원이다. 다만 로컬 모델은 GPU 사양에 따라 추론 속도와 성능이 크게 달라진다. RTX 4090 이상이 아니면 70B 모델은 느려서 실용성이 떨어지고, 8B~13B 수준의 경량 모델이 현실적이다. 경량 모델은 복잡한 도구 호출이나 멀티스텝 추론에서 실수가 잦아서, 단순 작업 전용으로 쓰는 게 적합하다.

데이터 프라이버시가 절대적으로 중요한 환경이라면 로컬 모델이 유일한 선택이다. API를 쓰면 프롬프트가 외부 서버로 전송되니까. 하지만 대부분의 사용자에게는 클라우드 API + 비용 최적화 전략이 성능과 비용의 균형 면에서 훨씬 현실적이다.

OpenRouter – 하나의 키로 모든 모델을 쓰는 방법

여러 모델을 번갈아 쓰고 싶은데, 제공자마다 API 키를 따로 관리하는 게 번거롭다면 OpenRouter가 답이다. OpenRouter는 하나의 API 엔드포인트로 100개 이상의 모델에 접근할 수 있는 통합 플랫폼이다. 오픈클로에는 OpenRouter 빌트인 지원이 있어서, 별도의 providers 설정 없이 API 키만 넣으면 된다.

export OPENROUTER_API_KEY="sk-or-여기에키를넣는다"

모델을 지정할 때는 openrouter/제공자/모델명 형식을 쓴다. 예를 들어 openrouter/google/gemini-2.0-flash-exp 같은 식이다. 가장 흥미로운 기능은 Auto Model(openrouter/openrouter/auto)이다. 프롬프트의 복잡도에 따라 자동으로 가장 비용 효율적인 모델을 선택해준다. 하트비트 같은 단순 작업에는 저렴한 모델을, 복잡한 코딩이나 분석에는 고성능 모델을 알아서 라우팅한다. 오픈클로는 다양한 유형의 작업을 처리하기 때문에, 이 자동 라우팅이 비용 최적화에 꽤 효과적이다.

OpenRouter의 또 다른 장점은 제공자 레벨의 장애 복구다. 특정 제공자의 API가 다운되면 자동으로 다른 제공자로 전환해준다. 오픈클로를 24시간 돌리는 환경에서는 이 안정성이 중요하다.

멀티 모델 전략 – 비용을 절반으로 줄이는 실전 설정

오픈클로의 진짜 위력은 여러 모델을 동시에 연결하고, 작업 유형에 따라 다른 모델을 할당할 때 나온다. 비유하자면, 모든 업무에 시니어 컨설턴트를 투입하는 대신, 간단한 일은 주니어에게 맡기고 핵심 업무만 시니어가 처리하는 구조다.

실전에서 내가 쓰고 있는 3단계 모델 구성은 이렇다. 메인 작업(이메일 분석, 코딩, 콘텐츠 작성)에는 Claude Sonnet 4.6을 할당한다. 하트비트 점검, 단순 분류, 상태 확인 같은 가벼운 작업에는 Gemini Flash 또는 GPT-4o-mini를 할당한다. 메인 모델에 장애가 발생했을 때를 대비한 폴백으로 GPT-4o를 설정해둔다.

오픈클로 설정 파일에서 폴백 체인을 구성하면, 첫 번째 모델이 응답하지 않을 때 자동으로 다음 모델로 넘어간다. 크론잡에서는 –model 옵션으로 작업별 모델을 직접 지정할 수도 있다. 예를 들어 매일 아침 브리핑은 Sonnet으로, 30분마다 도는 하트비트 점검은 Haiku로 설정하는 식이다.

이 구성으로 바꾸고 나서 월 API 비용이 체감상 절반 이하로 줄었다. 핵심은 “모든 작업에 최고 모델을 쓸 필요가 없다”는 원칙이다. 하트비트가 30분마다 돌면서 매번 Opus를 호출하면 그것만으로 월 비용의 상당 부분을 차지한다. 이걸 Haiku나 Flash로 바꾸는 것만으로도 극적인 차이가 난다.

모델을 바꾸는 방법 자체는 간단하다. 설정 파일을 열어서 모델 ID를 변경하고 게이트웨이를 재시작하면 된다. 또는 openclaw configure 명령으로 대화형 위저드에서 변경할 수도 있다. 크론잡에서 특정 모델을 지정하려면 –model 옵션을 쓴다.

openclaw cron add \
  --name "morning-brief" \
  --cron "0 7 * * *" \
  --model "anthropic/claude-sonnet-4-6" \
  --session isolated \
  --message "오늘 일정과 메일 요약해줘"

이렇게 하면 아침 브리핑은 Sonnet으로 처리되고, 기본 하트비트는 설정 파일에 지정한 경량 모델로 돌아간다. 작업의 중요도에 따라 모델 비용을 차등 배분하는 거다. 기업에서 인력을 배치하는 것과 똑같은 원리다.

모델 선택 의사결정 기준

결국 “나는 뭘 써야 하나”라는 질문으로 돌아온다. 상황별로 정리하면 이렇다.

“비용 0원으로 체험하고 싶다”면 제미나이 무료 티어로 시작하자. 신용카드 없이 바로 쓸 수 있고, 오픈클로의 기본 동작을 익히기에 충분하다.

“안정적으로 실무에 쓰고 싶다”면 클로드 Sonnet을 메인으로 추천한다. 코딩, 도구 호출, 지시 이행 모두에서 가장 균형 잡힌 성능을 보여준다.

“비용을 극단적으로 줄이고 싶다”면 OpenRouter Auto Model 또는 딥시크를 활용하자. 작업 복잡도에 따라 자동 라우팅하는 구조가 비용 최적화에 가장 효과적이다.

“데이터가 절대 외부로 나가면 안 된다”면 Ollama + 로컬 모델이 유일한 선택이다. 성능 제약이 있지만, 프라이버시는 완벽하게 보장된다.

“다 귀찮고 그냥 잘 되는 걸 원한다”면 Anthropic API 키 하나 발급받아서 Sonnet 기본 설정으로 쓰자. 오픈클로 공식 문서에서 권장하는 가장 안전한 경로이기도 하다.

마무리

오픈클로의 모델 비종속성은 단순한 기능이 아니라 철학에 가깝다. AI 모델 시장이 매달 판도가 바뀌는 상황에서, 특정 제공자에 묶이지 않는다는 건 상당한 전략적 유연성이다. 오늘은 클로드가 최고였는데 내일 제미나이가 역전할 수도 있고, 딥시크가 또 한 번 파란을 일으킬 수도 있다. 오픈클로에서는 설정 한 줄 바꾸는 것만으로 즉시 전환할 수 있다.

핵심을 정리하면 이렇다. 무료로 시작하려면 제미나이, 안정적 실무 사용은 클로드 Sonnet, 비용 극한 최적화는 OpenRouter Auto 또는 딥시크, 완전 프라이버시는 Ollama 로컬 모델이다. 그리고 가장 스마트한 전략은 이것들을 조합해서, 작업 유형에 따라 다른 모델을 할당하는 멀티 모델 구성이다. 어떤 모델을 고르든 openclaw configure 명령 하나로 언제든 바꿀 수 있으니, 일단 하나 연결해서 시작하고 나중에 최적화해도 충분하다.

마지막으로 한 가지 팁을 더 주자면, 모델 비용을 추적하는 습관을 들이는 게 좋다. 각 AI 제공자의 대시보드에서 일별 사용량을 확인할 수 있고, OpenRouter를 쓰면 통합 대시보드에서 전체 비용을 한눈에 볼 수 있다. 예산 알림을 설정해두면 예상치 못한 비용 폭발을 방지할 수 있다. 오픈클로가 24시간 돌아가는 도구인 만큼, 모니터링 없이 방치하면 월말에 놀라운 청구서를 받을 수도 있다. 제미나이 무료 티어로 시작해서 사용 패턴을 파악하고, 필요에 따라 유료 모델로 확장하는 단계적 접근이 가장 현명한 전략이다.

Leave a Comment