WaveSpeed CLI
すべての WaveSpeed モデルを — あなたのターミナルから
あらゆる WaveSpeed AI モデルを実行するためのオープンソース CLI。画像、動画、音声、3D。モデルごとに動的に取得されるヘルプ、自分でコントロールできるエイリアスのショートカット、エージェント向けの pipe 対応 JSON 出力。
$npm install -g @wavespeed/cli3 つのコマンドで出荷
インストール
Node 18+ が必要です。1 回のグローバルインストールで wavespeed バイナリがどこでも使えるようになります。
$npm install -g @wavespeed/cliサインイン
ブラウザでアクセスキーのページが開きます。クリップボードのキーを自動検出し、その場で検証します。
$wavespeed login任意のモデルを実行
すべてのモデルが同じ形式。モデル ID と入力を渡せば、CDN URL が返ってくるか、--json をスクリプトにパイプできます。
$wavespeed run wavespeed-ai/z-image/turbo -p "a cat"人間とエージェントの両方のために
モデルごとの動的ヘルプ
wavespeed run '<'model'>' -h を実行すると、CLI がそのモデルの入力スキーマをライブで取得し、受け付ける正確なフラグを表示します — 当てずっぽうは不要です。
リポジトリと一緒に運ばれるエイリアス
wavespeed.json に名前付きショートカットを定義し、モデルとデフォルト入力をまとめます。チームがファイルを取得して wavespeed run hero と入力すれば、ブランドに沿った出力が得られます。
エージェント・ネイティブな設計
すべてのコマンドが stdout の --json と stderr の進行状況をサポート。SKILL.md を配置すれば、Claude Code、Cursor、Codex が呼び出し方を理解します。
マジックも常駐プロセスもなし
CLI はあなたのプロンプトを書き換えず、バックグラウンドプロセスも開きません。api.wavespeed.ai を直接呼び出します。オープンソース、MIT ライセンス。
実際のセッションの様子
カタログ閲覧から JSON 出力まで — 3 つのコマンドで完結。
# 1. browse the catalog
$ wavespeed models --type text-to-image --popular
# 2. inspect a model's inputs — schema fetched live
$ wavespeed run wavespeed-ai/z-image/turbo -h
* prompt string
size string default: "1024*1024"
strength number default: 0.6 range: 0..1
output_format string default: "jpeg" enum: jpeg | png | webp
# 3. run — JSON out so you can pipe it
$ wavespeed run wavespeed-ai/z-image/turbo \
-p "a cyberpunk skyline at golden hour" --json
{
"model": "wavespeed-ai/z-image/turbo",
"outputs": ["https://d2p7pg.cachecloud.net/.../skyline.jpeg"],
"elapsed_ms": 4718
}コーディングエージェントに 1 ステップで接続
MCP サーバーも追加設定も不要。コーディングエージェントはすでにシェルコマンドの実行方法を知っています — SKILL.md が CLI の使い方を伝えます。
$wavespeed skill installClaude Code、Cursor、Codex など、.claude/skills/* を自動読み込みするあらゆるエージェントで動作します。
オープンソース。今すぐ使えます。
MIT ライセンス、npm 上では @wavespeed スコープで公開、GitHub でホスト。Issue と PR を歓迎します。