LTX-2 升級至 LTX-2.3:相容性、LoRA 中斷與遷移指南(2026)
已在使用 LTX-2?這裡涵蓋升級至 LTX-2.3 前需了解的重大變更、注意事項與驗證步驟,包括模型大小、ComfyUI 節點、LoRA 相容性及 API 差異。
嗨,我是 Dora。我沒有計劃升級週。我只是想重跑一個客戶簡報裡的舊提示詞。相同的種子、相同的設定,號稱「相同」的模型——但其實不是。LTX-2.3 出現在我的資料夾裡,圖像感覺清晰了一點、字面上更準確了一些……而我用 LoRA 強化的風格卻消失了。就是這個小小的落差讓我深陷其中。在 2026 年 3 月的幾天裡,我在我慣用的 ComfyUI 流程以及處理批次工作時依賴的託管 API 上,測試了LTX-2 升級至 LTX-2.3 的完整過程。以下是真正改變的地方、維持不變的部分,以及在做真實工作(而非演示)時摩擦會出現在哪裡。
LTX-2 與 2.3 之間真正改變了什麼
我跳過行銷說詞,只聚焦在影響我現有工作流程的部分。
- 提示詞的解析更字面化。我注意到 2.3 更一致地遵循位置提示(「左/右」、「前景/背景」)。對產品排版很有幫助:但對那些依賴 LTX-2 鬆散感的藝術風格提示詞來說有點過於死板。
- 預設的對比度和飽和度偏高。我的中性光線預設在 2.3 裡出來更鮮明。我把引導值調低了約 0.5–1.0,後製時降對比的頻率也減少了。
- 版本之間的種子不是 1:1 對應的。即使使用相同的種子,LTX-2.3 在我的測試中大約 10–12 步後就出現分歧。如果你需要從舊任務中進行像素級穩定的重新渲染,不要指望它能做到。
- 長寬比處理更合理。2.3 在處理非正方形尺寸(例如 1024×1536)時,變形元素更少。我可以捨棄一些在 LTX-2 上使用的畫布技巧。
- 採樣器預設值改變了。2.3 的推薦排程器(及其步數曲線)讓我用更少的步數就能達到相同的細節程度。我的甜蜜點從約 28–32 步移動到約 22–26 步。 在相同 GPU 上,吞吐量略有提升。
這些都不算戲劇性的變化。但已經足以以微小、有時是值得歡迎的方式改變工作流程……也足以打破任何依賴精確可重現性的東西,尤其是 LoRA。

模型大小的實際情況:本地部署的影響
我在 24 GB 的 4090 和一張 8 GB 的筆電 GPU 上測試了兩個版本。這是我希望發布說明更強調的部分:你的顯示卡能承載並仍能正常運作的實際上限。
VRAM 與儲存空間比較(兩個版本的 dev / fp8 / distilled)
以下是我觀察到的以及在實際操作中重要的事項:
- Dev/完整檢查點:在 4090 上,LTX-2 和 LTX-2.3 的「dev」版本都能載入,但 2.3 在執行時佔用的 VRAM 稍多(在我使用相同採樣器/步數的測試中,大約多出 +0.5–1.2 GB)。如果你在高解析度生成時的頻寬很緊張,這個差距很重要。在 8 GB 的顯示卡上,不啟用記憶體卸載的情況下,完整 dev 版本並不實際。
- FP8/量化版本:在我的測試中,fp8 2.3 版本比完整精度節省了約 25–35% 的 VRAM,代價是在推進非常低步數時,精細細節略顯脆弱。對於日常的 1K 輸出,我不介意。如果你會積極地進行合成或裁切,可能會有所感受。關於 FP8 量化在部署上的實際優勢,我參考了 NVIDIA 的官方指南,關於高效低精度 AI 訓練的內容。
- Distilled:2.3 的 distilled 檢查點表現得像是實用的中間地帶。儲存佔用空間更小,冷啟動速度明顯更快,邊緣微細節有小幅犧牲。對於適合社群媒體的圖像和內部文件,我會選擇 distilled 2.3 而非完整 2.0。
- 磁碟佔用:2.3 版本比 2.0 略大。不是很大,但我需要清除一些舊的實驗性 LoRA 來保持臨時磁碟乾淨。
一個來自實際經驗的小注意事項:一旦 VRAM 剩餘空間低於約 2 GB,我在使用 2.3 進行分塊高解析度處理時偶爾會遇到記憶體不足(OOM)的問題。降低分塊重疊或使用 fp8 能讓它穩定下來。
ComfyUI 工作流程相容性:什麼仍然有效,什麼需要更新
我基本上保持 ComfyUI 設定不變,只替換了檢查點。我主要參考了官方的 ComfyUI 倉庫,以確保測試期間工作流程的相容性。
仍然順暢運作的:
- 基本的「文字轉圖像」圖表,包含條件設定 → 採樣器 → VAE 解碼。我可以替換進 2.3 的載入器並渲染,無需重建圖表。
- 常見採樣器(例如 DPM++ 系列)運作正常。我只調整了步數和引導值以匹配新曲線。
- 帶有潛在空間放大器的高解析度工作流程仍然有效,雖然我將第二階段的步數縮短了約 20%,但未損失細節。
需要更新的:
- LoRA 注入節點:我的 LTX-2 LoRA 無法乾淨地附加到 2.3。即使節點讓我連接,結果也不對——風格偏移或崩潰。詳見下文。
- 檢查點路徑和格式:我測試的 2.3 檢查點帶有不同的資料夾名稱和略有不同的配置引用。我必須刷新 Checkpoint Loader 節點路徑並確認 VAE 配對。
- 參數預設值:我舊的「標準」預設值(CFG 6.5,步數約 30)在 2.3 上產生了更強烈的對比。將 CFG 降至約 5.5,步數降至約 24,恢復了我喜歡的平衡感。
- 負面提示詞:我較少依賴長串負面清單。2.3 似乎能原生避免某些瑕疵(在我的產品擺拍中,手部有所改善)。我精簡了負面提示詞以減少提示詞負擔。

節點變化、檢查點路徑和參數差異
- 節點變化:我不需要新的自訂節點來進行核心生成,但我確實將模型載入器節點更新到較新的 ComfyUI 版本,以避免元數據不匹配。如果你的 ComfyUI 已經幾個月沒更新,先更新,這能省去奇怪的錯誤。
- 檢查點路徑:將 2.0 和 2.3 資料夾分開存放。 我使用清晰的命名方案(模型名稱/版本/精度),這樣批次任務就不會抓錯檔案。
- 參數差異:2.3 似乎對 CFG 的波動更敏感。小幅調整(約 0.5)比在 2.0 上有更大的視覺影響。另外,更少的步數能達到類似的細節:在我的測試中,1K 圖像超過約 26 步後報酬遞減。
LoRA 相容性:為什麼現有 LoRA 無法直接遷移
這是最大的驚喜,也是如果你在 LTX-2 上建立了風格庫,代價最昂貴的部分。
我的 LTX-2 LoRA 沒有有意義地延續。簡短版本:基礎模型的變化(嵌入空間、注意力區塊,有時是正規化和 VAE 的變化)意味著學習到的差異無法乾淨地映射過去。你可以強行使用,但你會面對奇怪的色偏、形狀漂移,或那個令人頭痛的「一切都變成米色塑膠」問題。如果你的風格嚴重依賴 LoRA,建議按照 Hugging Face 官方 LoRA 訓練指南,將 LTX-2.3 視為新的基礎模型並重新訓練。
從實際角度來看:如果你的外觀依賴 LoRA,預計要將 LTX-2.3 視為新基礎並重新訓練。
需要重新訓練的內容和預估成本
我保留的:
- 資料集:我重新使用了我清理、加上標題的集合(每種風格約 300–800 張圖像,依多樣性而定)。更好的標題在 2.3 上比純粹的數量更有幫助。
- 設定:比用於 2.0 的學習率更低,以避免飽和度過度烘烤。Rank/dim 保持相近,但我將訓練步數向下調整了約 10–15%。
- 驗證:我每幾百步使用新的基礎提示詞(而非舊的)進行驗證。舊提示詞會讓我偏向錯誤的目標。
成本,以粗略的人類術語表示:
- 時間:在單張 4090 上,中型資料集每個 LoRA 約需 3–5 小時,包括驗證和小幅重啟。Distilled 2.3 基礎訓練速度明顯更快。
- 雲端:如果你租用,截至 2026 年 3 月,24 GB 級別 GPU 的預算約為每小時 $0.80–$1.60 美元。這讓單次乾淨重訓的費用落在 $3–$10 美元範圍,加上你的時間。顯然,更大的資料集和更多實驗會推高費用。
一開始沒有節省我的時間。但兩三次跑完後,我的 2.3 LoRA 在提示詞中需要的護欄更少了,這減少了未來批次的心智負擔。

API 使用者:需要注意的端點和參數差異
對於託管 API,ltx-2.3 與 ltx-2 的差異雖小,但影響不輕:
- 版本化模型:2.3 通常隱藏在明確的模型或版本參數後面。如果你依賴「latest」,在完成測試之前,將其鎖定到 2.0。
- 預設值移動了:引導值、步數和安全等級在我的服務商那裡有所變化。我的 LTX-2 預設值在 2.3 上產生了較高對比度的圖像,直到我將 CFG 降低了約 10–15%。
- 種子類型:一個 API 在 2.3 中將種子從 32 位元整數改為 64 位元整數。無害,除了我的舊封裝器將種子定義為字串類型。它靜默地忽略了它們。
- 負面提示詞和權重語法:檢查分詞器/權重格式。 一個服務商收緊了解析規則:我舊的「(keyword:1.2)」語法需要添加空格才能正確識別。
- 速率限制和批次處理:2.3 在我的佇列中每個請求的運行速度略快,但批次並發上限沒有改變。我將任務錯開以避免短暫的流量峰值。
如果你不確定,快速瀏覽你的服務商的發布說明,並跨版本測試相同的提示詞/種子。預期組成相似,但不是像素相同。
繼續使用 LTX-2 仍然合理的情況
我和任何人一樣喜歡新玩具,但我不會在沒有理由的情況下重建運作中的系統。我在幾個專案上繼續使用 LTX-2,因為:
- 你需要嚴格的可重現性。相同的種子、相同的像素,用於審計、受監管的工作流程,或與過去模型版本掛鉤的客戶確認。
- 你有大量的 LoRA 投資。如果你的庫龐大且多樣,重訓成本(時間、精力,不只是金錢)會累積起來。
- 邊緣設備或低 VRAM 限制。如果你的 8 GB 機器勉強能承載 2.0 堆棧,2.3 額外的頻寬需求可能會讓你不得不使用記憶體卸載。
- 團隊培訓成本。如果提示詞和預設值已寫入文件和教程,2.3 會強制帶來微小但累積性的更改。千刀萬剮的道理是真實的。
另一方面,如果你是從頭開始,或者你喜歡開箱即用的更緊密提示詞遵從性,2.3 操控起來感覺更好。

升級決策檢查清單(ComfyUI / 託管 API)
以下是我在切換流程之前實際走過的步驟。
ComfyUI
- 複製圖表並使用乾淨的載入器節點替換入 LTX-2.3。不要覆蓋你的 2.0 路徑。
- 重新找到你的步數/CFG 組合。從舊步數的約 80% 開始,CFG 降低 0.5–1.0。
- 在 5–10 個你在意的提示詞上驗證種子。接受組成相似,而非像素相同。
- 檢查高解析度/分塊階段是否有 OOM 問題。如果空間緊張,嘗試 fp8 或降低重疊。
- 停用 LoRA,然後逐一重新啟用。如果行為異常,計劃重訓而非嘗試修改權重。
- 更新所有負面提示詞模板。如果結果看起來更乾淨,就精簡;不要帶著包袱。
託管 API
- 在測試期間明確固定模型版本。
- 使用降低的 CFG 和步數重新建立你的預設,然後比較輸出/延遲。
- 在文件中確認種子處理(位元寬、類型)。
- 檢查安全標誌和內容過濾器:你可能需要放寬或提高閾值。
- 並排運行一個小批次(2.0 vs 2.3),讓人工針對你的使用情境挑選勝者。在這裡相信眼睛,而非指標。
如果在一天的輕度測試後大多數項目保持綠色,我就升級。如果兩個或更多需要臨時補丁,我就等待。
常見問題
LTX-2 的 LoRA 可以在不重訓的情況下用於 LTX-2.3 嗎?
在我的測試中,不能可靠地使用。基礎模型的變化足夠大,風格會漂移或崩潰。你可能用非常輕微的權重得到勉強過得去的結果,但很脆弱。將 2.3 視為新基礎,並計劃重新訓練 LoRA。
LTX-2 和 LTX-2.3 的檢查點可以在同一個 ComfyUI 設置中共存嗎?
可以。將它們放在不同的資料夾中,更新你的 Checkpoint Loader 節點路徑,並為你的預設加上版本名稱。我還在檔案名中標記模型,這樣舊圖像就不會混在一起。這很繁瑣,但能讓你免於未來的麻煩。
我最後補充一個小感想:第一張讓我停下來的 2.3 圖像是一張簡單的產品放架上的照片。貨架的線條終於是直的了。不是什麼戲劇性的事,只是少了一件以後需要修的事。好的升級通常就是這種感覺。



