ホーム チュートリアル カテゴリ Skills サイトについて
ZH EN JA KO
モデル接続

NVIDIA NIM推論サービス接続チュートリアル

· 3 分で読了

NVIDIA NIMの紹介

NVIDIA NIM(NVIDIA Inference Microservices)はNVIDIAが提供する最適化推論サービスで、大規模言語モデルをDockerコンテナにパッケージングし、NVIDIA GPUで究極の推論パフォーマンスを実現します。

OpenClawでの設定

{
  "providers": {
    "nvidia-nim": {
      "type": "openai",
      "baseUrl": "http://localhost:8000/v1",
      "apiKey": "not-used",
      "models": ["meta/llama-3.1-8b-instruct"]
    }
  }
}

NVIDIA API Catalogの使用

ローカルGPUがない場合はNVIDIAのクラウドAPIを使用できます。

{
  "providers": {
    "nvidia-cloud": {
      "type": "openai",
      "baseUrl": "https://integrate.api.nvidia.com/v1",
      "apiKey": "{{NGC_API_KEY}}",
      "models": ["meta/llama-3.1-405b-instruct"]
    }
  }
}

まとめ

NVIDIA NIMは究極の推論パフォーマンスを追求するための最良の選択です。GPUリソースを持つチームにとって、NIMのローカルデプロイにより低レイテンシ・高スループットの推論サービスを実現でき、OpenClawとの組み合わせで高性能AIアシスタントを構築できます。

OpenClawは無料のオープンソースAIアシスタント。WhatsApp、Telegram、Discordなど多数のプラットフォームに対応