WaveSpeed CLI
每一个 WaveSpeed 模型 — 都在你的终端里
一个开源 CLI,运行任何 WaveSpeed AI 模型。图像、视频、音频、3D。按模型实时获取的动态帮助、由你掌控的别名快捷方式、面向 agent 的管道安全 JSON 输出。
$npm install -g @wavespeed/cli三条命令即可上线
1
安装
需要 Node 18+。一次全局安装即可在任何地方使用 wavespeed 二进制。
$npm install -g @wavespeed/cli2
登录
在浏览器中打开 access-key 页面。我们自动检测剪贴板里的密钥并实时校验。
$wavespeed login3
运行任意模型
所有模型形状一致。传入模型 ID 和输入 — 得到 CDN URL,或将 --json 管道送入你的脚本。
$wavespeed run wavespeed-ai/z-image/turbo -p "a cat"为人类和 agent 而生
按模型动态生成帮助
运行 wavespeed run '<'model'>' -h,CLI 会实时获取该模型的输入 schema 并打印它接受的确切 flag — 无需猜测。
随你的仓库一起分发的别名
在 wavespeed.json 中定义命名快捷方式,把模型 + 默认输入打包起来。团队拉取文件,输入 wavespeed run hero,就能拿到符合品牌的输出。
从设计上就是 agent 原生
每条命令都在 stdout 上输出 --json,在 stderr 上输出进度。放一个 SKILL.md,Claude Code、Cursor 和 Codex 就知道怎么调用。
没有魔法,也没有守护进程
CLI 永远不会修改你的 prompt,也不会启动后台进程。它直接调用 api.wavespeed.ai。开源,MIT 许可证。
真实会话长这样
从浏览目录到 JSON 输出 — 三条命令。
~/projects/marketing
# 1. browse the catalog
$ wavespeed models --type text-to-image --popular
# 2. inspect a model's inputs — schema fetched live
$ wavespeed run wavespeed-ai/z-image/turbo -h
* prompt string
size string default: "1024*1024"
strength number default: 0.6 range: 0..1
output_format string default: "jpeg" enum: jpeg | png | webp
# 3. run — JSON out so you can pipe it
$ wavespeed run wavespeed-ai/z-image/turbo \
-p "a cyberpunk skyline at golden hour" --json
{
"model": "wavespeed-ai/z-image/turbo",
"outputs": ["https://d2p7pg.cachecloud.net/.../skyline.jpeg"],
"elapsed_ms": 4718
}一步接入你的编码 agent
不需要 MCP 服务器,也不需要额外配置。编码 agent 已经知道怎么运行 shell 命令 — SKILL.md 会告诉它们如何使用这个 CLI。
$wavespeed skill install兼容 Claude Code、Cursor、Codex 以及任何自动加载 .claude/skills/* 的 agent。