Hugging Faceの紹介
Hugging Faceは世界最大のオープンソースAIモデルコミュニティで、数十万の事前学習済みモデルをホストしています。Hugging FaceのInference APIを通じて、自前の推論インフラを構築することなくOpenClawでこれらのモデルを呼び出せます。
基本設定
{
"providers": {
"huggingface": {
"type": "openai",
"baseUrl": "https://api-inference.huggingface.co/models/",
"apiKey": "{{HF_API_TOKEN}}",
"models": ["mistralai/Mistral-7B-Instruct-v0.3"]
}
}
}
openclaw secrets set HF_API_TOKEN "hf_your_token_here"
Inference Endpointsの使用
本番環境では、より安定したパフォーマンスと低レイテンシのHugging Face Inference Endpoints(専用推論エンドポイント)の使用を推奨します。
TGI形式の使用
Hugging FaceのTGIサービスはOpenAI API形式と互換性があるため、OpenClawでは openai タイプで設定します。
{
"providers": {
"hf-tgi": {
"type": "openai",
"baseUrl": "https://api-inference.huggingface.co/v1",
"apiKey": "{{HF_API_TOKEN}}",
"models": ["meta-llama/Llama-3.1-8B-Instruct"]
}
}
}
まとめ
Hugging Faceは豊富なオープンソースモデルの選択肢を提供し、Inference APIやInference Endpoints経由でOpenClawに接続することで、さまざまなシーンに適したモデルを柔軟に選択しつつ、自前の推論サーバー構築の複雑さを回避できます。