← Блог

Обновление с LTX-2 до LTX-2.3: совместимость, проблемы с LoRA и миграция (2026)

Уже используете LTX-2? Вот что перестанет работать, что изменится и что нужно проверить перед обновлением до LTX-2.3 — включая размер модели, узлы ComfyUI, совместимость LoRA и различия в API.

11 min read
Обновление с LTX-2 до LTX-2.3: совместимость, проблемы с LoRA и миграция (2026)

Привет, я Дора. Я не планировала неделю апгрейда. Я просто хотела перезапустить старый промпт из клиентской презентации. Тот же seed, те же настройки, якобы «та же» модель — вот только это была уже не она. LTX-2.3 оказалась в моей папке, и изображения стали чуть чище, чуть буквальнее… а мой стиль, усиленный LoRA, исчез. Это крохотное несоответствие затянуло меня в кроличью нору. На протяжении нескольких дней в марте 2026 года я тестировала переход с ltx-2 на ltx-2.3 в своих обычных пайплайнах ComfyUI и в управляемом API, на который я опираюсь для пакетной работы. Вот что реально изменилось, что осталось стабильным, и где возникают трудности при настоящей работе — не на демонстрациях.

Что реально изменилось между LTX-2 и 2.3

Пропущу маркетинговые заявления и остановлюсь на том, что затронуло мои рабочие процессы.

  • Промпты выполняются буквальнее. Я заметила, что 2.3 стабильнее следует позиционным подсказкам («слева/справа», «передний/задний план»). Удобно для размещения товаров: немного жёстко для художественных промптов, которые опирались на вольность LTX-2.
  • Контрастность и насыщенность по умолчанию выше. Мои пресеты нейтрального освещения в 2.3 получались более выразительными. Я снижала guidance примерно на 0,5–1,0 и реже уменьшала контраст в постобработке.
  • Seed-ы не совпадают 1:1 между версиями. Даже при одинаковом seed LTX-2.3 давала другой результат примерно после 10–12 шагов в моих прогонах. Если нужен пиксельно точный повтор старых задач — не рассчитывайте на это.
  • Работа с соотношением сторон стала разумнее. 2.3 корректнее обрабатывала нестандартные размеры (например, 1024×1536), с меньшим количеством деформированных элементов. Мне удалось отказаться от некоторых хаков с холстом, которые я использовала в LTX-2.
  • Настройки семплера изменились. Рекомендуемый планировщик в 2.3 (и его кривая шагов) позволял достигать той же детализации за меньшее количество шагов. Мой оптимальный диапазон сместился с ~28–32 шагов до ~22–26. Пропускная способность немного выросла на той же видеокарте.

Ничего драматичного. Но этого достаточно, чтобы немного изменить пайплайн — порой в лучшую сторону… и сломать всё, что опирается на точную воспроизводимость, особенно LoRA.

Проверка реальности по размеру модели: последствия для локального развёртывания

Я запускала обе версии на 4090 с 24 ГБ и на ноутбучной видеокарте с 8 ГБ. Это та часть, которую я хотела бы видеть в релизных заметках: практический потолок того, что ваша карта может удержать и при этом нормально работать.

Сравнение VRAM и хранилища (dev / fp8 / distilled в обеих версиях)

Вот что я наблюдала и что имело практическое значение:

  • Dev/полные чекпоинты: На 4090 обе сборки «dev» — LTX-2 и LTX-2.3 — загружались, но 2.3 занимала чуть больше VRAM в рантайме (примерно +0,5–1,2 ГБ в моих прогонах с теми же настройками семплера и шагов). Если у вас мало свободного места для генерации в высоком разрешении, этот запас важен. На карте с 8 ГБ полные dev-сборки были нереалистичны без выгрузки.
  • Варианты FP8/квантованные: FP8-сборка 2.3 освобождала примерно 25–35% VRAM по сравнению с полной точностью в моих тестах, ценой чуть более нестабильной мелкой детализации при очень малом количестве шагов. Для обычных выходов на 1K это меня не беспокоило. Если вы активно компонуете или кропаете — может быть заметно. Для практических преимуществ квантования FP8 при развёртывании я обращалась к официальному руководству NVIDIA по эффективному обучению ИИ с пониженной точностью.
  • Distilled: Дистиллированный чекпоинт 2.3 оказался практичным компромиссом. Меньший объём на диске, заметно более быстрый холодный старт, небольшой компромисс в микродеталях краёв. Для изображений под соцсети и внутренней документации я бы выбрала distilled 2.3 вместо полной 2.0.
  • Объём на диске: Ожидайте небольшого увеличения для вариантов 2.3 по сравнению с 2.0. Не критично, но мне пришлось удалить старые экспериментальные LoRA, чтобы освободить место на рабочем диске.

Небольшая заметка из практики: как только свободный VRAM падал ниже ~2 ГБ, я периодически видела ошибки OOM при тайловых прогонах в высоком разрешении с 2.3. Уменьшение перекрытия тайлов или использование fp8 стабилизировало ситуацию.

Совместимость рабочих процессов ComfyUI: что работает, что нужно обновить

Я в основном сохранила свою установку ComfyUI и просто заменила чекпоинты. Для обеспечения совместимости рабочих процессов во время тестов я опиралась на официальный репозиторий ComfyUI.

Что продолжало работать без проблем:

  • Базовые графы text-to-image с conditioning → sampler → VAE decode. Я могла подключить загрузчик 2.3 и рендерить без пересборки графа.
  • Распространённые семплеры (например, семейства DPM++) работали нормально. Я только подстраивала шаги и guidance под новую кривую.
  • Рабочие процессы с высоким разрешением и латентными апскейлерами продолжали работать, хотя я сократила шаги второго этапа примерно на 20% без потери детализации.

Что потребовало обновления:

  • Узлы инъекции LoRA: Мои LoRA для LTX-2 не подключались к 2.3 корректно. Даже когда узел позволял соединение, результаты были неправильными — стиль искажался или разваливался. Подробнее ниже.
  • Пути и форматы чекпоинтов: Чекпоинты 2.3, которые я тестировала, имели другие имена папок и немного другие ссылки на конфигурацию. Мне пришлось обновить пути в узле Checkpoint Loader и подтвердить привязку VAE.
  • Настройки параметров по умолчанию: Мои старые «фирменные» пресеты (CFG 6,5, шаги ~30) давали более жёсткий контраст на 2.3. Снижение CFG до ~5,5 и шагов до ~24 вернуло баланс, который мне нравился.
  • Негативные промпты: Я стала меньше полагаться на длинные негативные списки. 2.3, похоже, нативно избегает некоторых артефактов (руки немного улучшились в моих постановочных фото с товарами). Я сократила негативы, чтобы снизить нагрузку на промпт.

Изменения в узлах, пути к чекпоинтам и различия в параметрах

  • Изменения узлов: Для базовой генерации мне не понадобились новые кастомные узлы, но я обновила узел загрузчика модели до более новой сборки ComfyUI, чтобы избежать несоответствий метаданных. Если вы отстаёте от обновлений ComfyUI на несколько месяцев — сначала обновитесь, это избавит от странных ошибок.
  • Пути к чекпоинтам: Держите папки 2.0 и 2.3 отдельно. Я использую чёткую схему именования (model_name/version/precision), чтобы пакетные задачи не захватывали не тот файл.
  • Различия в параметрах: 2.3 оказалась чувствительнее к изменениям CFG. Небольшие изменения (~0,5) давали более заметный визуальный эффект, чем в 2.0. Кроме того, меньшее количество шагов давало аналогичную детализацию: переход за ~26 шагов на изображениях 1K давал убывающую отдачу в моих тестах.

Совместимость LoRA: почему существующие LoRA не переносятся напрямую

Это стало главным сюрпризом — и самым дорогостоящим, если вы создали библиотеку стилей на LTX-2.

Мои LoRA для LTX-2 не перенеслись значимым образом. Кратко: изменения базовой модели (пространство эмбеддингов, блоки внимания, иногда нормализация и изменения VAE) означают, что выученные дельты не отображаются корректно. Можно принудить это, но придётся бороться со странными цветовыми сдвигами, дрейфом формы или страшным «всё превращается в бежевый пластик». Если ваш стиль сильно зависит от LoRA, рекомендуется воспринимать LTX-2.3 как новую базовую модель и переобучить LoRA, следуя официальному руководству Hugging Face по обучению LoRA.

С практической точки зрения: если ваш образ зависит от LoRA, рассчитывайте на то, что LTX-2.3 нужно будет воспринимать как новую базу и переобучать.

Что нужно переобучить и приблизительная стоимость

Что я сохранила:

  • Датасет: Я повторно использовала свой очищенный датасет с подписями (около 300–800 изображений на стиль, в зависимости от разнообразия). Качественные подписи помогли на 2.3 больше, чем объём.
  • Настройки: Более низкий learning rate, чем я использовала для 2.0, чтобы избежать пересыщенности насыщенностью. Rank/dim остались схожими, но я снизила шаги обучения примерно на 10–15%.
  • Валидация: Я валидировала каждые несколько сотен шагов с новыми базовыми промптами, а не с устаревшими. Старые промпты смещали меня к неправильным целям.

Затраты в приблизительных, человеческих единицах:

  • Время: Около 3–5 часов на LoRA на одном 4090 для датасетов среднего размера, включая валидацию и небольшие перезапуски. Дистиллированные базы 2.3 обучались заметно быстрее.
  • Облако: Если арендуете, закладывайте $0,80–$1,60/час для GPU класса 24 ГБ по состоянию на март 2026 года. Это ставит одно чистое переобучение в диапазон $3–$10, плюс ваше время. Очевидно, более крупные датасеты и больше экспериментов увеличивают эту сумму.

Сначала это не экономило мне время. Но после двух-трёх прогонов мои LoRA для 2.3 требовали меньше защитных ограждений в промптах, что снижало умственную нагрузку на будущие пакетные задачи.

Пользователи API: различия в эндпоинтах и параметрах, на которые стоит обратить внимание

Для управляемых API различия между ltx-2.3 и ltx-2 были небольшими, но значимыми:

  • Версионированные модели: 2.3 часто требует явного параметра модели или версии. Если вы полагаетесь на «latest» — зафиксируйте 2.0 до завершения тестирования.
  • Значения по умолчанию изменились: Guidance, количество шагов и уровни безопасности изменились у моего провайдера. Мои пресеты для LTX-2 давали изображения с более высоким контрастом на 2.3, пока я не снизила CFG примерно на 10–15%.
  • Типы seed: Один API перешёл с 32-битных на 64-битные int в 2.3. Безвредно, за исключением того, что мой старый враппер типизировал seed как строки. Они молча игнорировались.
  • Негативные промпты и синтаксис весов: Проверьте форматирование токенизатора/весов. Один провайдер ужесточил парсинг: мой старый синтаксис «(keyword:1.2)» потребовал пробелов для корректной обработки.
  • Ограничения частоты запросов и пакетная обработка: 2.3 выполнялась немного быстрее на запрос в моих очередях, но ограничения на параллельность пакетной обработки не изменились. Я разносила задачи во времени, чтобы избежать кратковременных пиков.

Если сомневаетесь — просмотрите релизные заметки вашего провайдера и протестируйте одинаковый промпт/seed в разных версиях. Ожидайте схожую композицию, но не идентичные пиксели.

Когда оставаться на LTX-2 всё ещё имеет смысл

Я люблю новые игрушки не меньше других, но не пересобираю работающие системы без причины. Я осталась на LTX-2 для нескольких проектов, потому что:

  • Вам нужна строгая воспроизводимость. Одинаковый seed, одинаковые пиксели — для аудитов, регулируемых рабочих процессов или клиентских согласований, привязанных к прошлой версии модели.
  • У вас значительные инвестиции в LoRA. Если ваша библиотека обширна и разнообразна, затраты на переобучение (время, внимание, а не только деньги) накапливаются.
  • Ограничения edge-устройств или VRAM. Если ваша машина с 8 ГБ едва тянет стек 2.0, дополнительные требования к памяти 2.3 могут вынудить вас к выгрузке.
  • Затраты на обучение команды. Если промпты и пресеты зафиксированы в документах и руководствах, 2.3 потребует небольших, но накапливающихся изменений. «Смерть от тысячи порезов» — это реально.

С другой стороны, если вы начинаете с нуля или вам нравится более строгое соответствие промптам из коробки, 2.3 ощущалась приятнее в управлении.

Контрольный список для принятия решения об апгрейде (ComfyUI / управляемый API)

Вот что я реально проходила перед переключением пайплайна.

ComfyUI

  • Скопируйте граф и подключите LTX-2.3 с чистым узлом загрузчика. Не перезаписывайте путь к 2.0.
  • Найдите свою пару шаги/CFG. Начните с ~80% от прежнего количества шагов и снизьте CFG на 0,5–1,0.
  • Проверьте seed на 5–10 важных для вас промптах. Принимайте схожесть композиции, а не идентичность пикселей.
  • Проверьте этапы высокого разрешения/тайлинга на OOM. Если памяти мало, попробуйте fp8 или уменьшите перекрытие.
  • Отключите LoRA, затем включайте по одной. Если ведёт себя неправильно — планируйте переобучение вместо правки весов.
  • Обновите шаблоны негативных промптов. Сокращайте, если результаты выглядят чище: не тащите лишний балласт.

Управляемый API

  • Явно зафиксируйте версию модели во время тестирования.
  • Пересоздайте пресет со сниженными CFG и шагами, затем сравните результат/задержку.
  • Уточните в документации обработку seed (битность, типы).
  • Проверьте флаги безопасности и фильтры контента: возможно, понадобится расслабить или ужесточить пороги.
  • Запустите небольшой параллельный пакет (2.0 vs 2.3) и попросите человека выбрать лучший вариант для вашего случая. Доверяйте глазам больше, чем метрикам.

Если большинство пунктов остаются зелёными после дня лёгкого тестирования — обновляюсь. Если два и более требуют костылей — жду.

FAQ

Работают ли LoRA от LTX-2 на LTX-2.3 без переобучения?

В моих тестах — не надёжно. Базовая модель изменилась достаточно, чтобы стили смещались или разваливались. Можно выжать приемлемые результаты с очень мягкими весами, но это нестабильно. Воспринимайте 2.3 как новую базу и планируйте свежий проход LoRA.

Могут ли чекпоинты LTX-2 и LTX-2.3 сосуществовать в одной установке ComfyUI?

Да. Держите их в отдельных папках, обновите пути в узле Checkpoint Loader и версионируйте имена пресетов. Я также добавляю тег модели в имя файла выходного изображения, чтобы старые изображения не смешивались с новыми. Это рутина, но она спасает в будущем.

Закончу небольшой заметкой: первое изображение 2.3, которое заставило меня остановиться, было обычным снимком товара на полке. Линии полки наконец-то были прямыми. Ничего драматичного — просто одна вещь меньше, которую нужно исправлять. Именно так обычно и ощущаются хорошие апгрейды.

Предыдущие посты:

Поделиться