Skip to content

Mistral

OpenClaw는 텍스트/이미지 모델 라우팅(mistral/...)과 미디어 이해에서 Voxtral을 통한 오디오 전사 모두에 Mistral을 지원합니다. Mistral은 메모리 임베딩(memorySearch.provider = "mistral")에도 사용할 수 있습니다.

CLI 설정

bash
openclaw onboard --auth-choice mistral-api-key
# 또는 비대화형
openclaw onboard --mistral-api-key "$MISTRAL_API_KEY"

구성 스니펫 (LLM 프로바이더)

json5
{
  env: { MISTRAL_API_KEY: "sk-..." },
  agents: { defaults: { model: { primary: "mistral/mistral-large-latest" } } },
}

내장 LLM 카탈로그

OpenClaw는 현재 다음 번들 Mistral 카탈로그를 제공합니다:

모델 참조입력컨텍스트최대 출력참고 사항
mistral/mistral-large-latest텍스트, 이미지262,14416,384기본 모델
mistral/mistral-medium-2508텍스트, 이미지262,1448,192Mistral Medium 3.1
mistral/mistral-small-latest텍스트, 이미지128,00016,384Mistral Small 4; API reasoning_effort를 통한 조정 가능한 추론
mistral/pixtral-large-latest텍스트, 이미지128,00032,768Pixtral
mistral/codestral-latest텍스트256,0004,096코딩
mistral/devstral-medium-latest텍스트262,14432,768Devstral 2
mistral/magistral-small텍스트128,00040,000추론 활성화

구성 스니펫 (Voxtral을 사용한 오디오 전사)

json5
{
  tools: {
    media: {
      audio: {
        enabled: true,
        models: [{ provider: "mistral", model: "voxtral-mini-latest" }],
      },
    },
  },
}

조정 가능한 추론 (mistral-small-latest)

mistral/mistral-small-latest는 Mistral Small 4에 매핑되며 Chat Completions API에서 reasoning_effort (none은 출력의 추가 사고를 최소화합니다; high는 최종 답변 전에 전체 사고 추적을 표시합니다)를 통해 조정 가능한 추론을 지원합니다.

OpenClaw는 세션 사고 수준을 Mistral의 API에 매핑합니다:

  • off / minimalnone
  • low / medium / high / xhigh / adaptivehigh

다른 번들 Mistral 카탈로그 모델은 이 파라미터를 사용하지 않습니다; Mistral의 네이티브 추론 우선 동작을 원할 때는 magistral-* 모델을 계속 사용하십시오.

참고 사항

  • Mistral 인증은 MISTRAL_API_KEY를 사용합니다.
  • 프로바이더 기본 URL은 기본적으로 https://api.mistral.ai/v1입니다.
  • 온보딩 기본 모델은 mistral/mistral-large-latest입니다.
  • Mistral에 대한 미디어 이해 기본 오디오 모델은 voxtral-mini-latest입니다.
  • 미디어 전사 경로는 /v1/audio/transcriptions를 사용합니다.
  • 메모리 임베딩 경로는 /v1/embeddings를 사용합니다 (기본 모델: mistral-embed).