LTX-2 升级至 LTX-2.3:兼容性、LoRA 变更与迁移指南(2026)
已在使用 LTX-2?本文介绍升级至 LTX-2.3 前需了解的变更内容、注意事项及验证步骤,涵盖模型大小、ComfyUI 节点、LoRA 兼容性及 API 差异。
嘿,我是 Dora。我并没有计划一次升级周。我只是想重新运行一个客户演示文稿里的旧提示词。相同的种子、相同的设置,理论上是”同一个”模型——但实际上并不是。LTX-2.3 出现在我的文件夹里,图像感觉更干净了一点,更字面化了一些……而我用 LoRA 强化的风格却消失了。就是这一点小小的偏差,让我一头扎进了这个兔子洞。2026 年 3 月的几天里,我在常用的 ComfyUI 流水线和批量工作中依赖的托管 API 上测试了 ltx-2 升级到 ltx-2.3 的全过程。以下是真正发生变化的地方、保持稳定的地方,以及在做真实工作(而非演示)时摩擦出现的地方。
LTX-2 和 2.3 之间究竟发生了什么变化
我跳过营销话术,只聚焦于影响到我现有工作流的部分。
- 提示词解析更加字面化。我注意到 2.3 对位置提示(“左/右”、“前景/背景”)的遵循更加一致。对于产品布局来说很好用:但对于那些依赖 LTX-2 松散感的艺术类提示词来说有些死板。
- 对比度和饱和度默认值偏高。我的中性光照预设在 2.3 中输出更加鲜艳。我把引导值调低了约 0.5–1.0,后期降低对比度的频率也少了。
- 种子在不同版本间不是 1:1 对应的。即使使用相同的种子,LTX-2.3 在我的运行中大约经过 10–12 步后就会产生偏差。如果你需要从旧任务中进行像素级稳定的重新渲染,不要寄希望于此。
- 宽高比处理更合理。2.3 对非正方形尺寸(如 1024×1536)的支持更好,变形元素更少。我可以去掉一些以前在 LTX-2 上使用的画布技巧。
- 采样器默认值改变了。2.3 中推荐的调度器(及其步数曲线)让我用更少的步数就能获得相同的细节。我的最佳步数从约 28–32 步移动到了约 22–26 步。 同一 GPU 上的吞吐量略有提升。
这些变化都不算剧烈。但足以以微小的、有时令人欣喜的方式改变流水线……也足以打破任何依赖精确可复现性的东西,尤其是 LoRA。

模型大小现实核查:本地部署影响
我在 24 GB 的 4090 和 8 GB 的笔记本 GPU 上运行了两个版本。这是我希望发布说明更加强调的部分:你的显卡实际上能装下多少内容并还能正常运行。
VRAM 和存储对比(dev / fp8 / distilled,涵盖两个版本)
以下是我观察到的情况以及在实践中重要的事项:
- Dev/完整检查点:在 4090 上,LTX-2 和 LTX-2.3 的 “dev” 版本都能加载,但 2.3 在运行时的 VRAM 占用略重(在我使用相同采样器/步数的运行中大约多 +0.5–1.2 GB)。如果你在高分辨率生成时 VRAM 空间本来就紧张,这个余量很重要。在 8 GB 显卡上,不进行卸载的完整 dev 版本是不现实的。
- FP8/量化变体:在我的测试中,fp8 2.3 版本相比全精度节省了约 25–35% 的 VRAM,代价是在步数极少时细节略微脆弱。对于日常的 1K 输出,我不在意。如果你需要大量合成或裁剪,可能会有所感受。关于 FP8 量化在部署中的实际优势,我参考了 NVIDIA 的官方指南关于高效低精度 AI 训练的内容。
- Distilled:2.3 的蒸馏检查点表现得像一个实用的折中方案。存储占用更小,热启动明显更快,边缘细节上有小幅取舍。对于适合社交媒体的图像和内部文档,我会选择蒸馏版 2.3 而不是完整版 2.0。
- 磁盘占用:预计 2.3 变体相比 2.0 会有小幅增加。不算大,但我需要清理掉一些旧的实验性 LoRA 才能保持暂存盘整洁。
来自一线的小提示:一旦剩余 VRAM 降至约 2 GB 以下,我在 2.3 的分块高分辨率处理过程中偶尔会遇到 OOM。降低分块重叠或使用 fp8 可以解决这个问题。
ComfyUI 工作流兼容性:哪些仍然有效,哪些需要更新
我基本上保持了 ComfyUI 的设置不变,只替换了检查点。测试期间我主要参考了官方 ComfyUI 仓库 来确保工作流兼容性。
仍然顺畅运行的部分:
- 基础的文生图图形:条件输入 → 采样器 → VAE 解码。我可以换入 2.3 加载器并渲染,无需重建图形。
- 常见采样器(如 DPM++ 系列)运行正常。我只是调整了步数和引导值以匹配新曲线。
- 带有潜空间放大器的高分辨率工作流仍然有效,但我将第二阶段步数缩短了约 20%,细节没有损失。
需要更新的部分:
- LoRA 注入节点:我的 LTX-2 LoRA 没能干净地附加到 2.3 上。即使节点允许连接,结果也不对,风格偏移或崩溃。详见下文。
- 检查点路径和格式:我测试的 2.3 检查点使用了不同的文件夹名称和略有不同的配置引用。我必须刷新检查点加载器节点路径并确认 VAE 配对。
- 参数默认值:我旧的”默认”预设(CFG 6.5,步数约 30)在 2.3 上产生了更强烈的对比度。将 CFG 降至约 5.5、步数降至约 24,恢复了我喜欢的平衡感。
- 负面提示词:我对长负面提示词列表的依赖减少了。2.3 似乎能自然地避免某些伪影(在我的产品姿势中手部有所改善)。我精简了负面提示词以减少提示词开销。

节点变化、检查点路径和参数差异
- 节点变化:核心生成不需要新的自定义节点,但我确实将模型加载器节点更新到了更新版本的 ComfyUI 构建,以避免元数据不匹配。如果你的 ComfyUI 落后几个月,先更新,这能省去很多奇怪的错误。
- 检查点路径:将 2.0 和 2.3 文件夹分开存放。 我使用清晰的命名方案(模型名/版本/精度),这样批量任务就不会抓取错误的文件。
- 参数差异:2.3 对 CFG 变化似乎更敏感。小幅调整(约 0.5)比在 2.0 上产生更大的视觉影响。另外,更少的步数就能获得相似的细节:在我的测试中,1K 图像超过约 26 步后收益递减。
LoRA 兼容性:为什么现有 LoRA 无法直接迁移
这是最大的意外,如果你在 LTX-2 上建立了风格库,这也是代价最高的地方。
我的 LTX-2 LoRA 没能有意义地迁移过来。简短的解释:基础模型的变化(嵌入空间、注意力模块,有时还有归一化层和 VAE 变化)意味着学习到的增量无法干净地映射过去。你可以强行使用,但会遇到奇怪的色偏、形状漂移,或者令人头疼的”一切都变成米色塑料”现象。如果你的风格严重依赖 LoRA,建议参照 Hugging Face 官方 LoRA 训练指南 将 LTX-2.3 视为新的基础模型并重新训练。
从实际角度来看:如果你的外观效果依赖 LoRA,预计需要将 LTX-2.3 视为新的基础并重新训练。
需要重新训练的内容和预估成本
我保留的内容:
- 数据集:我重用了我清理好的、带有描述的数据集(根据风格多样性,每种风格约 300–800 张图像)。更好的描述在 2.3 上比原始数量更有帮助。
- 设置:学习率比我在 2.0 上使用的更低,以避免过度烘焙饱和度。Rank/dim 保持相似,但我将训练步数调低了约 10–15%。
- 验证:我每隔几百步用新的基础提示词进行验证,而不是用旧的提示词。旧提示词会让我偏向错误的目标。
成本,用粗略的人类语言描述:
- 时间:中等规模数据集在单张 4090 上每个 LoRA 大约需要 3–5 小时,包括验证和小幅重启。蒸馏版 2.3 基础训练得快一些。
- 云端:如果你租用显卡,截至 2026 年 3 月,24 GB 级别的 GPU 预算约为 0.80–1.60 美元/小时。这意味着一次干净的重新训练在 3–10 美元的范围内,加上你的时间。显然,更大的数据集和更多的实验会让费用上升。
一开始并没有节省我的时间。但经过两三轮训练后,我的 2.3 LoRA 在提示词中需要的约束更少,这减少了未来批次工作中的脑力消耗。

API 用户:需要关注的端点和参数差异
对于托管 API,ltx-2.3 与 ltx-2 的差异很小,但影响不容忽视:
- 版本化模型:2.3 通常需要明确的模型或版本参数。如果你依赖”最新版”,在完成测试之前先锁定到 2.0。
- 默认值发生了变化:我的服务提供商的引导值、步数和安全等级都有所调整。我的 LTX-2 预设在 2.3 上产生了更高对比度的图像,直到我将 CFG 降低约 10–15%。
- 种子类型:一个 API 在 2.3 中将种子从 32 位整数改为了 64 位整数。本身无害,只是我旧的封装代码将种子类型化为字符串,结果悄悄地忽略了它们。
- 负面提示词和权重语法:检查分词器/权重格式。 一个服务提供商收紧了解析:我旧的 “(keyword:1.2)” 语法需要添加空格才能生效。
- 速率限制和批处理:2.3 在我的队列中每个请求运行得略快,但批处理并发上限没有变化。我错开了任务以避免短暂的峰值。
如果你不确定,浏览一下服务提供商的发布说明,并用相同的提示词/种子跨版本进行测试。期望类似的构图,而不是完全相同的像素。
什么情况下继续使用 LTX-2 仍然合理
我和任何人一样喜欢新玩具,但我不会在没有理由的情况下重建一个运行良好的系统。以下几个项目我继续使用 LTX-2,原因如下:
- 你需要严格的可复现性。相同的种子,相同的像素,用于审计、受监管的工作流,或绑定到过去模型版本的客户确认。
- 你有大量的 LoRA 投入。如果你的库既深且广,重新训练的成本(时间、精力,不只是金钱)会累积起来。
- 边缘设备或低 VRAM 限制。如果你的 8 GB 机器勉强承载 2.0 的堆栈,2.3 额外的显存需求可能会把你推向卸载的境地。
- 团队培训成本。如果提示词和预设已经写入文档和教程,2.3 会带来微小但累积性的变化。千刀万剐的死法是真实存在的。
另一方面,如果你是从头开始,或者你喜欢开箱即用的更严格提示词遵循,2.3 操控起来感觉更好。

升级决策清单(ComfyUI / 托管 API)
以下是我在切换流水线之前实际走过的流程。
ComfyUI
- 复制图形并用干净的加载器节点换入 LTX-2.3。不要覆盖你的 2.0 路径。
- 重新找到你的步数/CFG 组合。从旧步数的约 80% 开始,将 CFG 降低 0.5–1.0。
- 在你关心的 5–10 个提示词上验证种子。接受构图相似性,而不是像素一致性。
- 检查高分辨率/分块阶段是否有 OOM。如果空间紧张,尝试 fp8 或降低重叠。
- 禁用 LoRA,然后逐一重新启用。如果行为异常,计划重新训练而不是硬改权重。
- 更新所有负面提示词模板。如果结果看起来更干净,精简内容:不要带着包袱前行。
托管 API
- 在测试期间明确锁定模型版本。
- 使用降低的 CFG 和步数重新创建你的预设,然后比较输出/延迟。
- 在文档中确认种子处理方式(位宽、类型)。
- 检查安全标志和内容过滤器:你可能需要放宽或提高阈值。
- 并排运行一个小型批次(2.0 vs 2.3),让人眼来挑选你的使用场景中的优胜者。在这里相信眼睛而不是指标。
如果经过一天的轻量测试后大多数条目保持绿色,我就升级。如果有两个或更多需要打补丁,我就等待。
常见问题
LTX-2 的 LoRA 不重新训练能在 LTX-2.3 上使用吗?
在我的测试中,不能可靠地使用。基础模型的变化足以让风格漂移或崩溃。你可能用很低的权重能挤出勉强可用的结果,但很脆弱。将 2.3 视为新的基础,并计划重新进行一轮 LoRA 训练。
LTX-2 和 LTX-2.3 的检查点可以在同一个 ComfyUI 设置中共存吗?
可以。将它们放在不同的文件夹中,更新你的检查点加载器节点路径,并对预设进行版本命名。我还在文件名中标注了模型,这样旧图像就不会混入其中。这很繁琐,但能帮你省去未来的麻烦。
最后说一个小细节:第一张让我驻足的 2.3 图像是一张简单的产品摆放在货架上的照片。货架线终于是直的了。没什么戏剧性,只是少了一件以后需要修复的事情。好的升级通常就是这种感觉。





