下載 LTX-2 模型:Hugging Face 檔案、大小與資料夾結構

下載 LTX-2 模型:Hugging Face 檔案、大小與資料夾結構

我第一次尋找 LTX-2 下載 時,這並不是一項宏大的計畫。我只是想在 ComfyUI 上執行一個小批次,卻一再遇到同樣兩個問題:下載速度很慢,在 92% 處停滯,最後終於有了檔案後卻出現神秘的「找不到模型」訊息。沒什麼戲劇性的。只是那種反覆出現的小煩惱,促使你停下來整理工作流程。

我在 2026 年 1 月初花了幾個晚上,在一台 24GB GPU 機器上測試不同的來源、格式(NVFP4 vs NVFP8)和資料夾佈局。沒什麼花哨的,只是足夠的執行次數來看看什麼是穩定的,什麼是脆弱的。以下是為我減少混亂的方法,附註你可以快速查閱並借鑑。


官方 LTX-2 下載來源(Hugging Face 模型卡)

我不會追蹤鏡像。如果一個模型對我的工作流程很重要,我希望這個過程是單調而可靠的。對於 LTX-2,這意味著從官方 Hugging Face 模型卡 開始。

在點擊下載前我會檢查的事項:

  • 發行者: 這是與 LTX-2 相關聯的經過驗證的組織或作者嗎?我會檢查組織徽章,以及該命名空間中的其他倉庫看起來是否活躍且一致。
  • 授權與條款: 某些 LTX-2 變體可能是閘道式的或有使用限制。如果接受條款需要令牌,我寧願一次性做好也不要後來除錯身份驗證錯誤。
  • 成品清單: 我會快速查看主模型、任何編碼器和任何蒸餾或量化變體。清晰的檔名勝過聰明的檔名。
  • 說明: 如果卡片連結到 ComfyUI 或特定節點的文件,我會先遵循那些。關於預期資料夾的一行說明可以節省半小時的猜測。

實用提示: 使用 Hugging Face CLI 並設定認證。閘道式倉庫不會在沒有令牌的原始 git-lfs 上拉取,這是最快導致檔案不完整且在嘗試載入前沒有錯誤的方式。

pip install huggingface_hub git-lfs
huggingface-cli login  # 貼上你的令牌

我知道,很明顯。但我見過無聲的 403 變成下游「找不到模型」的次數…非零。


檔案清單與大小(主模型 / 編碼器 / 蒸餾版本)

我不會記住檔案大小。我只是需要一個大致估計來規劃磁碟空間並決定先取哪個變體。以下是我在最近 LTX-2 版本中實際看到的內容。你的倉庫可能不同,始終相信模型卡而不是我的筆記。

你會看到的典型成品:

  • 主模型檢查點(通常是 .safetensors 或特定運行時格式):約 2.5–6.0 GB。如果包含額外頭或多精度則更大;如果量化則更小。
  • 文本/影像編碼器(CLIP 或類似):約 400 MB–1.5 GB。某些構建會捆綁此項;其他則作為單獨檔案提供。
  • VAE 或潛在適配器(如適用):約 100–500 MB。
  • 蒸餾變體:約 1–3 GB。更快更輕,有時輸出稍微柔和。適合原型設計。
  • 量化變體(NVFP8/NVFP4):大小不同,但預期磁碟空間比完整精度少 30–60%。

我注意的命名模式:

  • ltx-2.safetensors(主模型)
  • ltx-2-encoder.safetensorsopen_clip-vit-…(編碼器)
  • ltx-2-vae.safetensors(如果分開)
  • ltx-2-distilled-…(更小、更快)
  • ltx-2-nvfp8 / ltx-2-nvfp4(格式特定)

如果磁碟空間緊張,我先取蒸餾版本,驗證我的管道,然後拉取完整模型。這不只是關於速度:減少第一次執行的認知負擔有助於我測試提示和節點,而不是立即與 VRAM 對抗。


LTX-2 的 ComfyUI 資料夾結構(精確路徑)

這是我第一天絆倒的地方:我的檔案沒問題,但 ComfyUI 不知道去哪裡找。不同的自訂節點期望略有不同的位置,但以下預設對我一直都很安全。

在標準 ComfyUI 安裝 上(無自訂節點覆蓋):

  • 主模型檢查點: ComfyUI/models/checkpoints/LTX-2.safetensors
  • 文本/影像編碼器(CLIP 或類似): ComfyUI/models/clip/LTX-2-encoder.safetensors
    • 某些構建使用 open_clip 命名:也將那些放在 models/clip/ 中。
  • VAE(如果分開): ComfyUI/models/vae/LTX-2-vae.safetensors
  • LoRA/補丁(如果你使用): ComfyUI/models/loras/

如果你使用依賴 TensorRT 或引擎檔案的節點:

  • ComfyUI/models/trt/ltx-2/*.engine
  • ComfyUI/models/unet/ltx-2/*.engine

兩個無聊但有用的習慣:

  • 將檔名與你的節點期望的完全匹配。我保持名稱簡短並移除空格。
  • 移動檔案後,使用 ComfyUI 的模型刷新或重啟。熱重載有時有效:完整重啟更一致。

如果你使用外部磁碟或共享模型資料夾,設定 ComfyUI 的額外模型路徑,以免它默默掃描錯誤的磁碟。Linux 上的大小寫敏感性讓我吃過不止一次的虧。


NVFP4 vs NVFP8 權重:下載哪個

我很好奇 NVFP4 是否值得額外的壓縮。簡短的答案:也許吧,如果你 VRAM 緊張且你的節點實際支援它。

以下是它在我的機器上實際感受(Hopper 級 GPU,2026 年 1 月構建):

NVFP8

  • 平衡:很好的折衷方案。相比完整精度明顯較低的記憶體,輸出漂移最小。
  • 相容性:更好。目前更多節點和運行時接受 FP8 而不是 FP4。
  • 何時選擇:我想要穩定性而不是最小佔用空間的日常執行。

NVFP4

  • 佔用空間:更小。它讓我在 FP8 不會的地方提升解析度或上下文。
  • 漂移:邊界情況下稍微多一些偽影或柔和度。不總是,但足以讓我注意到。
  • 相容性:更挑剔。如果某些載入器沒有偵測到正確的核心,它們會回退或失敗。
  • 何時選擇:快速草稿、網格搜索,或當工作流程嚴格由節點的 FP4 路徑支援時。

還有一件事:這些格式通常假設你在可以適當加速它們的 NVIDIA 堆疊上。如果你的節點沒有明確說「支援 NVFP4/NVFP8」,我預設為完整精度或蒸餾 .safetensors 構建。追蹤邊際收益不值得神秘的中途崩潰。


LTX-2 下載加速與校驗和驗證提示

我像對待任何其他大檔案工作一樣處理大模型拉取:加速它,然後驗證。

實際有幫助的加速:

  • Hugging Face 傳輸加速:在使用 huggingface_hub 之前設定環境變數 HF_HUB_ENABLE_HF_TRANSFER=1。這在可用的地方啟用他們的加速後端。

aria2c 用於平行分塊:

aria2c -x 16 -s 16 -k 1M -c

-c 旗標在我的連線在 97% 時打嗝時乾淨地恢復部分下載。


git-lfs 調整拉取

  • git lfs install 然後 git clone
  • 遵循 Git LFS 安裝指南,如果是一個巨大的倉庫,我有時會使用稀疏簽出來避免拉取我不會使用的範例。

我實際做過的驗證(也不再跳過)

將模型卡(或倉庫的 .sha256 檔案)中的 SHA256 與你的本地檔案進行比較。

  • macOS/Linux: shasum -a 256
  • Windows: certutil -hashfile SHA256

檔案大小合理性檢查

  • 如果預期大小是 4.2 GB 但我看到 3.3 GB,我會停在那裡。部分檔案有時可以「載入」,然後稍後拋出垃圾錯誤。

一個小習慣能節省時間:我在模型檔案旁邊放一個小的 README.txt,其中包含原始 URL、日期和雜湊。當我三個月後重新訪問時,我不必反向工程我過去的選擇。


「找不到模型」修復

這個錯誤花了我一小時我拿不回來。以下是對我實際有幫助的修復:

  • 資料夾錯誤: ComfyUI 期望檢查點在 models/checkpoints/ 中,編碼器在 models/clip/ 中,VAE 在 models/vae/ 中。將它們放在其他地方,掃描器可能會忽略它們。
  • 檔名不符: 某些節點尋找特定的基名。如果節點說 ltx-2.safetensors,不要叫它 LTX-2 (final).safetensors。我會激進地重新命名。
  • 大小寫敏感性: ltx-2.safetensorsLTX-2.safetensors 在 Linux 上。問我怎麼知道的。
  • 快取索引: 移動檔案後刷新模型或重啟 ComfyUI。索引不總是即時的。
  • 缺少依賴: 如果節點期望外部編碼器而你只下載了主模型,你會得到一個模糊的錯誤。拉取模型卡上列出的編碼器並再試一次。
  • 沒有令牌的閘道式模型: 如果你在不登入的情況下克隆(或你的令牌過期),本地檔案可能是存根。使用 huggingface-cli login 重新登入並重新拉取。
  • 自訂節點和替代路徑: 某些節點會覆蓋預設資料夾。檢查他們的 README 以了解預期的路徑或環境變數。有疑問時,從你的共享模型目錄到預期的本地路徑建立符號連結。

當我卡住時,我暫時將節點指向一個已知良好的小模型,只是為了確認載入器有效。如果小的載入,bug 就在 LTX-2 檔案中,而不是我的環境中。


使用 WaveSpeed 跳過 LTX-2 下載

我在旅行筆記本上嘗試了不同的路線:完全跳過本地下載,通過 WaveSpeed 執行 LTX-2。它遠程流式傳輸或託管權重,讓你可以連接類似 ComfyUI 的圖形,而無需將 10+ GB 停在磁碟上。 對我有效的東西:

  • 入職很輕鬆。我將圖形指向他們的 LTX-2 端點,沒有接觸本地資料夾。
  • 冷啟動更慢(第一次執行會啟動一個會話),但溫啟動對小批次感覺正常。
  • 它防止我的筆記本電腦風扇狂鳴。僅此一項就讓它在路上很有用。

我注意到的權衡:

  • 延遲: 有一個小開銷,對許多短執行更明顯。對於長渲染,我停止注意。
  • 控制: 你放棄了某些版本釘選。他們保持模型修補,這很好,直到你想重現一個較舊的結果。
  • 成本/配額: 它不是「像下載一樣免費」。如果你的預算緊張或需要大量批次工作,本地仍然獲勝。
  • 隱私: 我將敏感的提示和資產保存在本地。對於公開或測試工作,我很好。

誰可能喜歡這個: 在性能不足的機器上測試 LTX-2 的人,或任何想在承諾完整本地設定前素描工作流程的人。如果你 VRAM 豐富且關心精確的可重現性,本地安裝仍然感覺更好。

我不認為我會喜歡它,但對於快速實驗,跳過下載是一點小安慰。