Обновление с LTX-2 до LTX-2.3: совместимость, проблемы с LoRA и миграция (2026)
Уже используете LTX-2? Вот что перестанет работать, что изменится и что нужно проверить перед обновлением до LTX-2.3 — включая размер модели, узлы ComfyUI, совместимость LoRA и различия в API.
Привет, я Дора. Я не планировала неделю апгрейда. Я просто хотела перезапустить старый промпт из клиентской презентации. Тот же seed, те же настройки, якобы «та же» модель — вот только это была уже не она. LTX-2.3 оказалась в моей папке, и изображения стали чуть чище, чуть буквальнее… а мой стиль, усиленный LoRA, исчез. Это крохотное несоответствие затянуло меня в кроличью нору. На протяжении нескольких дней в марте 2026 года я тестировала переход с ltx-2 на ltx-2.3 в своих обычных пайплайнах ComfyUI и в управляемом API, на который я опираюсь для пакетной работы. Вот что реально изменилось, что осталось стабильным, и где возникают трудности при настоящей работе — не на демонстрациях.
Что реально изменилось между LTX-2 и 2.3
Пропущу маркетинговые заявления и остановлюсь на том, что затронуло мои рабочие процессы.
- Промпты выполняются буквальнее. Я заметила, что 2.3 стабильнее следует позиционным подсказкам («слева/справа», «передний/задний план»). Удобно для размещения товаров: немного жёстко для художественных промптов, которые опирались на вольность LTX-2.
- Контрастность и насыщенность по умолчанию выше. Мои пресеты нейтрального освещения в 2.3 получались более выразительными. Я снижала guidance примерно на 0,5–1,0 и реже уменьшала контраст в постобработке.
- Seed-ы не совпадают 1:1 между версиями. Даже при одинаковом seed LTX-2.3 давала другой результат примерно после 10–12 шагов в моих прогонах. Если нужен пиксельно точный повтор старых задач — не рассчитывайте на это.
- Работа с соотношением сторон стала разумнее. 2.3 корректнее обрабатывала нестандартные размеры (например, 1024×1536), с меньшим количеством деформированных элементов. Мне удалось отказаться от некоторых хаков с холстом, которые я использовала в LTX-2.
- Настройки семплера изменились. Рекомендуемый планировщик в 2.3 (и его кривая шагов) позволял достигать той же детализации за меньшее количество шагов. Мой оптимальный диапазон сместился с ~28–32 шагов до ~22–26. Пропускная способность немного выросла на той же видеокарте.
Ничего драматичного. Но этого достаточно, чтобы немного изменить пайплайн — порой в лучшую сторону… и сломать всё, что опирается на точную воспроизводимость, особенно LoRA.

Проверка реальности по размеру модели: последствия для локального развёртывания
Я запускала обе версии на 4090 с 24 ГБ и на ноутбучной видеокарте с 8 ГБ. Это та часть, которую я хотела бы видеть в релизных заметках: практический потолок того, что ваша карта может удержать и при этом нормально работать.
Сравнение VRAM и хранилища (dev / fp8 / distilled в обеих версиях)
Вот что я наблюдала и что имело практическое значение:
- Dev/полные чекпоинты: На 4090 обе сборки «dev» — LTX-2 и LTX-2.3 — загружались, но 2.3 занимала чуть больше VRAM в рантайме (примерно +0,5–1,2 ГБ в моих прогонах с теми же настройками семплера и шагов). Если у вас мало свободного места для генерации в высоком разрешении, этот запас важен. На карте с 8 ГБ полные dev-сборки были нереалистичны без выгрузки.
- Варианты FP8/квантованные: FP8-сборка 2.3 освобождала примерно 25–35% VRAM по сравнению с полной точностью в моих тестах, ценой чуть более нестабильной мелкой детализации при очень малом количестве шагов. Для обычных выходов на 1K это меня не беспокоило. Если вы активно компонуете или кропаете — может быть заметно. Для практических преимуществ квантования FP8 при развёртывании я обращалась к официальному руководству NVIDIA по эффективному обучению ИИ с пониженной точностью.
- Distilled: Дистиллированный чекпоинт 2.3 оказался практичным компромиссом. Меньший объём на диске, заметно более быстрый холодный старт, небольшой компромисс в микродеталях краёв. Для изображений под соцсети и внутренней документации я бы выбрала distilled 2.3 вместо полной 2.0.
- Объём на диске: Ожидайте небольшого увеличения для вариантов 2.3 по сравнению с 2.0. Не критично, но мне пришлось удалить старые экспериментальные LoRA, чтобы освободить место на рабочем диске.
Небольшая заметка из практики: как только свободный VRAM падал ниже ~2 ГБ, я периодически видела ошибки OOM при тайловых прогонах в высоком разрешении с 2.3. Уменьшение перекрытия тайлов или использование fp8 стабилизировало ситуацию.
Совместимость рабочих процессов ComfyUI: что работает, что нужно обновить
Я в основном сохранила свою установку ComfyUI и просто заменила чекпоинты. Для обеспечения совместимости рабочих процессов во время тестов я опиралась на официальный репозиторий ComfyUI.
Что продолжало работать без проблем:
- Базовые графы text-to-image с conditioning → sampler → VAE decode. Я могла подключить загрузчик 2.3 и рендерить без пересборки графа.
- Распространённые семплеры (например, семейства DPM++) работали нормально. Я только подстраивала шаги и guidance под новую кривую.
- Рабочие процессы с высоким разрешением и латентными апскейлерами продолжали работать, хотя я сократила шаги второго этапа примерно на 20% без потери детализации.
Что потребовало обновления:
- Узлы инъекции LoRA: Мои LoRA для LTX-2 не подключались к 2.3 корректно. Даже когда узел позволял соединение, результаты были неправильными — стиль искажался или разваливался. Подробнее ниже.
- Пути и форматы чекпоинтов: Чекпоинты 2.3, которые я тестировала, имели другие имена папок и немного другие ссылки на конфигурацию. Мне пришлось обновить пути в узле Checkpoint Loader и подтвердить привязку VAE.
- Настройки параметров по умолчанию: Мои старые «фирменные» пресеты (CFG 6,5, шаги ~30) давали более жёсткий контраст на 2.3. Снижение CFG до ~5,5 и шагов до ~24 вернуло баланс, который мне нравился.
- Негативные промпты: Я стала меньше полагаться на длинные негативные списки. 2.3, похоже, нативно избегает некоторых артефактов (руки немного улучшились в моих постановочных фото с товарами). Я сократила негативы, чтобы снизить нагрузку на промпт.

Изменения в узлах, пути к чекпоинтам и различия в параметрах
- Изменения узлов: Для базовой генерации мне не понадобились новые кастомные узлы, но я обновила узел загрузчика модели до более новой сборки ComfyUI, чтобы избежать несоответствий метаданных. Если вы отстаёте от обновлений ComfyUI на несколько месяцев — сначала обновитесь, это избавит от странных ошибок.
- Пути к чекпоинтам: Держите папки 2.0 и 2.3 отдельно. Я использую чёткую схему именования (model_name/version/precision), чтобы пакетные задачи не захватывали не тот файл.
- Различия в параметрах: 2.3 оказалась чувствительнее к изменениям CFG. Небольшие изменения (~0,5) давали более заметный визуальный эффект, чем в 2.0. Кроме того, меньшее количество шагов давало аналогичную детализацию: переход за ~26 шагов на изображениях 1K давал убывающую отдачу в моих тестах.
Совместимость LoRA: почему существующие LoRA не переносятся напрямую
Это стало главным сюрпризом — и самым дорогостоящим, если вы создали библиотеку стилей на LTX-2.
Мои LoRA для LTX-2 не перенеслись значимым образом. Кратко: изменения базовой модели (пространство эмбеддингов, блоки внимания, иногда нормализация и изменения VAE) означают, что выученные дельты не отображаются корректно. Можно принудить это, но придётся бороться со странными цветовыми сдвигами, дрейфом формы или страшным «всё превращается в бежевый пластик». Если ваш стиль сильно зависит от LoRA, рекомендуется воспринимать LTX-2.3 как новую базовую модель и переобучить LoRA, следуя официальному руководству Hugging Face по обучению LoRA.
С практической точки зрения: если ваш образ зависит от LoRA, рассчитывайте на то, что LTX-2.3 нужно будет воспринимать как новую базу и переобучать.
Что нужно переобучить и приблизительная стоимость
Что я сохранила:
- Датасет: Я повторно использовала свой очищенный датасет с подписями (около 300–800 изображений на стиль, в зависимости от разнообразия). Качественные подписи помогли на 2.3 больше, чем объём.
- Настройки: Более низкий learning rate, чем я использовала для 2.0, чтобы избежать пересыщенности насыщенностью. Rank/dim остались схожими, но я снизила шаги обучения примерно на 10–15%.
- Валидация: Я валидировала каждые несколько сотен шагов с новыми базовыми промптами, а не с устаревшими. Старые промпты смещали меня к неправильным целям.
Затраты в приблизительных, человеческих единицах:
- Время: Около 3–5 часов на LoRA на одном 4090 для датасетов среднего размера, включая валидацию и небольшие перезапуски. Дистиллированные базы 2.3 обучались заметно быстрее.
- Облако: Если арендуете, закладывайте $0,80–$1,60/час для GPU класса 24 ГБ по состоянию на март 2026 года. Это ставит одно чистое переобучение в диапазон $3–$10, плюс ваше время. Очевидно, более крупные датасеты и больше экспериментов увеличивают эту сумму.
Сначала это не экономило мне время. Но после двух-трёх прогонов мои LoRA для 2.3 требовали меньше защитных ограждений в промптах, что снижало умственную нагрузку на будущие пакетные задачи.

Пользователи API: различия в эндпоинтах и параметрах, на которые стоит обратить внимание
Для управляемых API различия между ltx-2.3 и ltx-2 были небольшими, но значимыми:
- Версионированные модели: 2.3 часто требует явного параметра модели или версии. Если вы полагаетесь на «latest» — зафиксируйте 2.0 до завершения тестирования.
- Значения по умолчанию изменились: Guidance, количество шагов и уровни безопасности изменились у моего провайдера. Мои пресеты для LTX-2 давали изображения с более высоким контрастом на 2.3, пока я не снизила CFG примерно на 10–15%.
- Типы seed: Один API перешёл с 32-битных на 64-битные int в 2.3. Безвредно, за исключением того, что мой старый враппер типизировал seed как строки. Они молча игнорировались.
- Негативные промпты и синтаксис весов: Проверьте форматирование токенизатора/весов. Один провайдер ужесточил парсинг: мой старый синтаксис «(keyword:1.2)» потребовал пробелов для корректной обработки.
- Ограничения частоты запросов и пакетная обработка: 2.3 выполнялась немного быстрее на запрос в моих очередях, но ограничения на параллельность пакетной обработки не изменились. Я разносила задачи во времени, чтобы избежать кратковременных пиков.
Если сомневаетесь — просмотрите релизные заметки вашего провайдера и протестируйте одинаковый промпт/seed в разных версиях. Ожидайте схожую композицию, но не идентичные пиксели.
Когда оставаться на LTX-2 всё ещё имеет смысл
Я люблю новые игрушки не меньше других, но не пересобираю работающие системы без причины. Я осталась на LTX-2 для нескольких проектов, потому что:
- Вам нужна строгая воспроизводимость. Одинаковый seed, одинаковые пиксели — для аудитов, регулируемых рабочих процессов или клиентских согласований, привязанных к прошлой версии модели.
- У вас значительные инвестиции в LoRA. Если ваша библиотека обширна и разнообразна, затраты на переобучение (время, внимание, а не только деньги) накапливаются.
- Ограничения edge-устройств или VRAM. Если ваша машина с 8 ГБ едва тянет стек 2.0, дополнительные требования к памяти 2.3 могут вынудить вас к выгрузке.
- Затраты на обучение команды. Если промпты и пресеты зафиксированы в документах и руководствах, 2.3 потребует небольших, но накапливающихся изменений. «Смерть от тысячи порезов» — это реально.
С другой стороны, если вы начинаете с нуля или вам нравится более строгое соответствие промптам из коробки, 2.3 ощущалась приятнее в управлении.

Контрольный список для принятия решения об апгрейде (ComfyUI / управляемый API)
Вот что я реально проходила перед переключением пайплайна.
ComfyUI
- Скопируйте граф и подключите LTX-2.3 с чистым узлом загрузчика. Не перезаписывайте путь к 2.0.
- Найдите свою пару шаги/CFG. Начните с ~80% от прежнего количества шагов и снизьте CFG на 0,5–1,0.
- Проверьте seed на 5–10 важных для вас промптах. Принимайте схожесть композиции, а не идентичность пикселей.
- Проверьте этапы высокого разрешения/тайлинга на OOM. Если памяти мало, попробуйте fp8 или уменьшите перекрытие.
- Отключите LoRA, затем включайте по одной. Если ведёт себя неправильно — планируйте переобучение вместо правки весов.
- Обновите шаблоны негативных промптов. Сокращайте, если результаты выглядят чище: не тащите лишний балласт.
Управляемый API
- Явно зафиксируйте версию модели во время тестирования.
- Пересоздайте пресет со сниженными CFG и шагами, затем сравните результат/задержку.
- Уточните в документации обработку seed (битность, типы).
- Проверьте флаги безопасности и фильтры контента: возможно, понадобится расслабить или ужесточить пороги.
- Запустите небольшой параллельный пакет (2.0 vs 2.3) и попросите человека выбрать лучший вариант для вашего случая. Доверяйте глазам больше, чем метрикам.
Если большинство пунктов остаются зелёными после дня лёгкого тестирования — обновляюсь. Если два и более требуют костылей — жду.
FAQ
Работают ли LoRA от LTX-2 на LTX-2.3 без переобучения?
В моих тестах — не надёжно. Базовая модель изменилась достаточно, чтобы стили смещались или разваливались. Можно выжать приемлемые результаты с очень мягкими весами, но это нестабильно. Воспринимайте 2.3 как новую базу и планируйте свежий проход LoRA.
Могут ли чекпоинты LTX-2 и LTX-2.3 сосуществовать в одной установке ComfyUI?
Да. Держите их в отдельных папках, обновите пути в узле Checkpoint Loader и версионируйте имена пресетов. Я также добавляю тег модели в имя файла выходного изображения, чтобы старые изображения не смешивались с новыми. Это рутина, но она спасает в будущем.
Закончу небольшой заметкой: первое изображение 2.3, которое заставило меня остановиться, было обычным снимком товара на полке. Линии полки наконец-то были прямыми. Ничего драматичного — просто одна вещь меньше, которую нужно исправлять. Именно так обычно и ощущаются хорошие апгрейды.
Предыдущие посты:
- Смотрите, что реально изменилось в LTX-2.3 и где это улучшает реальные результаты
- Узнайте, как эффективно использовать эндпоинты API LTX-2.3 в производственных рабочих процессах
- Сравните WAN 2.7 и WAN 2.6 перед тем, как принять решение о следующем апгрейде модели
- Разберитесь с управлением первым/последним кадром для более стабильной генерации видео
- Изучите настройку API WAN 2.7 для построения масштабируемых видео-пайплайнов
