OpenCat、ChatBox、LobeChatをWaveSpeed LLMで設定する:1つのアプリで290以上のモデルを利用
OpenCat、ChatBox、LobeChatをWaveSpeed LLMで設定するためのステップバイステップガイド。エンドポイント、APIキー、チャットプロトコルの各フィールドに何を入力すればいいか、迷わず設定できます。
チャットアプリが必ず聞く3つの項目
現代のデスクトップ/モバイルLLMチャットアプリ — OpenCat、ChatBox、LobeChat、ChatGPT Next Web、Cherry Studio、その他多数 — は、カスタムプロバイダーを追加する際に同じ3つの項目を入力するよう求めます:
- エンドポイント(「API Host」「Base URL」「Server URL」と呼ばれることもある)
- APIキー(「Secret Key」「SK」「Token」と呼ばれることもある)
- チャットプロトコル(「API Type」「Compatible Mode」と呼ばれることもある)
多くの人にとって、この3つの空欄が設定で詰まるポイントです。このガイドでは、最も人気のある3つのチャットアプリ — OpenCat、ChatBox、LobeChat — でWaveSpeed LLMをバックエンドとして使う場合に、何を入力すべきかを正確に説明します。
共通の答え
どのチャットアプリを設定する場合でも、WaveSpeed LLMの答えは常に同じです:
| 項目 | 値 |
|---|---|
| エンドポイント / Base URL | https://llm.wavespeed.ai/v1 |
| APIキー | WaveSpeed APIキー(ダッシュボードから取得) |
| チャットプロトコル | OpenAI(Chat Completions) |
| モデルID | vendor/model — 例:anthropic/claude-opus-4.6 |
この4つの値があれば、OpenAI互換クライアントならどれでも接続できます。以下では3つの具体的なアプリについて説明します。
事前準備:WaveSpeed APIキーの取得
- wavespeed.ai にアクセスしてサインインします。
- ダッシュボード → APIキー を開きます。
- 新しいキーを作成し、すぐにコピーして安全な場所に保管します。
このタブは開いたままにしておいてください — 以下の各アプリでキーを貼り付けます。
OpenCat
OpenCatはmacOSおよびiOS向けの人気ネイティブチャットクライアントです。
- OpenCat → 設定 → API プロバイダー → プロバイダーを追加(または既存のOpenAIプロバイダーを編集)を開きます。
- 以下を入力します:
- 名前:WaveSpeed LLM(任意のラベル)
- API Host:
https://llm.wavespeed.ai/v1 - APIキー:
YOUR_WAVESPEED_API_KEY - プロトコル / プロバイダータイプ:OpenAI
- 保存します。OpenCatが利用可能なモデルを一覧表示するので、
anthropic/claude-opus-4.6またはWaveSpeedカタログの他のモデルを選択します。 - OpenCatがモデルを自動的に一覧表示しない場合は、ID
anthropic/claude-opus-4.6でモデルを手動で追加します。
ヒント:OpenCatでは異なるモデルを使った複数のアシスタントを作成できます。それぞれ異なるWaveSpeedモデルIDを指定することで、Claude、GPT、Geminiを並べて比較できます。
ChatBox
ChatBoxはクロスプラットフォーム(Windows、macOS、Linux、モバイル)のチャットアプリです。
- ChatBox → 設定 → モデル を開きます。
- 以下を設定します:
- モデルプロバイダー:OpenAI API(または「Custom OpenAI」)
- APIキー:
YOUR_WAVESPEED_API_KEY - API Host:
https://llm.wavespeed.ai/v1 - API Path:
/chat/completions(デフォルト、そのままにする) - モデル:
anthropic/claude-opus-4.6(リストにない場合は手動で入力)
- 保存して新しいチャットを開始します。
ChatBoxはプロバイダーごとにモデルリストをキャッシュします。モデルが表示されない場合は、モデルIDを手動で入力してください — ChatBoxはそれを使用します。
LobeChat
LobeChatはフル機能のオープンソースチャットUI で、セルフホストまたはlobehub.comから利用できます。
- LobeChat → 設定 → 言語モデル → OpenAI を開きます。
- 有効化 をオンにします。
- 以下を入力します:
- APIキー:
YOUR_WAVESPEED_API_KEY - APIプロキシアドレス(または Base URL):
https://llm.wavespeed.ai/v1
- APIキー:
- モデルリスト でカスタムモデルを追加します:
- モデルID:
anthropic/claude-opus-4.6 - 表示名:任意
- モデルID:
- 保存して、会話で新しいモデルを選択します。
LobeChatのOpenAIプロバイダーは、WaveSpeed経由でClaudeやGeminiを呼び出す場合でも正しい選択です — クライアントはOpenAI Chat Completionsで通信し、WaveSpeedが透過的に上流モデルへ変換します。
なぜ「OpenAI」が常に正しいプロトコル選択なのか
よくある混乱ポイント:WaveSpeed経由でClaudeを呼び出しているなら、プロトコルとして「Anthropic」を選ぶべきではないか?
いいえ。 OpenAI を選んでください。
WaveSpeed LLMは、Claude、GPT、Gemini、Llama、Qwen、DeepSeekなどすべてのモデルを OpenAI Chat Completionsプロトコル で公開しています。モデルIDの anthropic/ プレフィックスは、WaveSpeedがどの上流モデルにルーティングするかを指示するだけです。チャットアプリはOpenAIを話せれば十分です。
これが統一されたOpenAI互換ゲートウェイのポイントです:あなたのツールはその違いを知る必要がありません。
試してほしい人気モデルID
| モデルID | 説明 |
|---|---|
anthropic/claude-opus-4.6 | コンテキスト100万トークンのClaude |
anthropic/claude-sonnet-4.6 | より速く、安価なClaude |
openai/gpt-5.2-pro | OpenAIトップの推論モデル |
openai/gpt-5.2-chat | バランス型GPT |
google/gemini-3-flash-preview | 高速マルチモーダル |
deepseek/deepseek-v4 | 最安値の高性能コーダー |
meta-llama/llama-4-70b | オープンウェイト、安定性高 |
完全なカタログは wavespeed.ai/llm でご覧ください。
トラブルシューティング
「Invalid API Key」/ 401 Unauthorized 間違ったキーを貼り付けています。WaveSpeedダッシュボードからキーを正確にコピーしてください — 前後にスペースが入らないよう注意。
「Model not found」/ 404
モデルIDは vendor/model の完全な形式を使用する必要があります。クライアントが claude-opus-4.6 のような短縮形に自動補完する場合は、手動で編集してください。
アプリが api.openai.com に接続しようとする
Base URL / API Hostを変更し忘れています。設定を再度開き、https://llm.wavespeed.ai/v1 になっていることを確認してください。
SSL / 証明書エラー
チャットアプリを最新バージョンにアップデートしてください。最新バージョンはすべて llm.wavespeed.ai への標準TLS接続をサポートしています。
1つのキーで複数アプリ
同じWaveSpeed APIキーをすべてのチャットクライアントに追加できます。1つのアカウント、1つの請求、290以上のモデルがどこでも使えます。
WaveSpeed APIキーを取得するして、お好みのチャットアプリを数分で接続しましょう。
