← Blog

Mise à niveau de LTX-2 vers LTX-2.3 : Compatibilité, ruptures LoRA et migration (2026)

Vous utilisez déjà LTX-2 ? Voici ce qui se casse, ce qui change et ce qu'il faut vérifier avant de passer à LTX-2.3 — couvrant la taille du modèle, les nœuds ComfyUI, la compatibilité LoRA et les différences d'API.

13 min read
Mise à niveau de LTX-2 vers LTX-2.3 : Compatibilité, ruptures LoRA et migration (2026)

Bonjour, je suis Dora. Je n’avais pas prévu une semaine de mise à niveau. Je voulais juste relancer un ancien prompt d’un deck client. Même seed, mêmes paramètres, soi-disant « le même » modèle, sauf que ce n’était plus le cas. LTX-2.3 a atterri dans mon dossier, et les images semblaient un cran plus nettes, un peu plus littérales… et mon style amélioré par LoRA avait disparu. Ce petit écart m’a entraîné dans le terrier du lapin. Sur quelques jours en mars 2026, j’ai testé la mise à niveau ltx-2 vers ltx-2.3 à travers mes pipelines ComfyUI habituels et l’API gérée sur laquelle je m’appuie pour le travail par lots. Voici ce qui a réellement changé, ce qui est resté stable, et où les frictions apparaissent quand on fait du vrai travail, pas des démos.

Ce qui a réellement changé entre LTX-2 et 2.3

Je vais passer les arguments marketing et me concentrer sur les parties qui ont touché mes workflows existants.

  • Les prompts se résolvent plus littéralement. J’ai remarqué que 2.3 suit les indications de position (« gauche/droite », « premier plan/arrière-plan ») plus systématiquement. Pratique pour les mises en page produit : un peu rigide pour les prompts artistiques qui reposaient sur la souplesse de LTX-2.
  • Le contraste et la saturation sont plus élevés par défaut. Mes préréglages d’éclairage neutre ressortaient plus percutants dans 2.3. J’ai réduit le guidance de ~0,5–1,0 et abaissé moins souvent le contraste en post-traitement.
  • Les seeds ne correspondent pas 1:1 entre les versions. Même avec le même seed, LTX-2.3 divergeait après ~10–12 étapes dans mes runs. Si vous avez besoin de rendus pixel-stables issus d’anciens travaux, ne comptez pas dessus.
  • La gestion du format d’image est plus sensée. 2.3 respectait les tailles hors-carré (ex. 1024×1536) avec moins d’éléments déformés. J’ai pu abandonner certains des hacks de canvas que j’utilisais avec LTX-2.
  • Les paramètres par défaut du sampler ont changé. Le scheduler recommandé dans 2.3 (et sa courbe d’étapes) m’a poussé à utiliser moins d’étapes pour le même niveau de détail. Mon point idéal est passé de ~28–32 étapes à ~22–26. Le débit s’est amélioré sur le même GPU.

Rien de dramatique. Mais c’est suffisant pour infléchir un pipeline de petites façons, parfois bienvenues… et pour casser tout ce qui repose sur une reproductibilité exacte, en particulier les LoRAs.

Vérification réaliste de la taille du modèle : implications pour le déploiement local

J’ai exécuté les deux versions sur un 4090 de 24 Go et un GPU de laptop à 8 Go. C’est la partie que j’aurais aimé voir davantage soulignée dans les notes de version : le plafond pratique de ce que votre carte peut contenir tout en respirant.

Comparaison VRAM et stockage (dev / fp8 / distillé pour les deux versions)

Voici ce que j’ai observé et ce qui comptait en pratique :

  • Checkpoints dev/complets : Sur le 4090, les builds « dev » de LTX-2 et LTX-2.3 se chargeaient tous les deux, mais 2.3 était un peu plus lourd en VRAM à l’exécution (environ +0,5–1,2 Go dans mes runs avec le même sampler/étapes). Si vous êtes juste en marge pour les générations haute résolution, cet écart compte. Sur la carte à 8 Go, les builds dev complets n’étaient pas réalistes sans offloading.
  • Variantes FP8/quantifiées : Le build fp8 de 2.3 libérait ~25–35% de VRAM par rapport à la précision complète dans mes tests, au prix d’un fin détail légèrement plus fragile quand on pousse à très peu d’étapes. Pour des sorties 1K ordinaires, ça ne me dérangeait pas. Si vous compositez ou recadrez agressivement, ça pourrait. Pour les avantages pratiques de la quantification FP8 en déploiement, je me suis référé au guide officiel de NVIDIA sur l’entraînement IA en précision réduite efficace.
  • Distillé : Le checkpoint distillé de 2.3 se comportait comme un juste milieu pratique. Empreinte de stockage plus faible, démarrages à chaud notablement plus rapides, légère concession sur les micro-détails de bord. Pour des images prêtes pour les réseaux sociaux et des documents internes, je choisirais le distillé 2.3 plutôt que le complet 2.0.
  • Empreinte disque : Attendez-vous à une légère augmentation pour les variantes 2.3 par rapport à 2.0. Pas énorme, mais j’ai dû élaguer d’anciens LoRAs expérimentaux pour garder le disque scratch propre.

Une petite note du terrain : une fois que la marge VRAM passait sous ~2 Go restants, je voyais des OOM occasionnels pendant les passes haute résolution en tuile avec 2.3. Réduire le chevauchement de tuile ou utiliser fp8 stabilisait la situation.

Compatibilité des workflows ComfyUI : ce qui fonctionne encore, ce qui a besoin d’être mis à jour

J’ai gardé ma configuration ComfyUI principalement intacte et échangé les checkpoints. Je me suis principalement référé au dépôt officiel ComfyUI pour assurer la compatibilité des workflows pendant mes tests.

Ce qui a continué à fonctionner sans problème :

  • Les graphes texte-vers-image de base avec conditioning → sampler → décodage VAE. Je pouvais intégrer le loader 2.3 et rendre sans reconstruire le graphe.
  • Les samplers courants (ex. familles DPM++) fonctionnaient bien. J’ai seulement ajusté les étapes et le guidance pour correspondre à la nouvelle courbe.
  • Les workflows haute résolution avec des upscalers latents fonctionnaient encore, bien que j’aie raccourci les étapes de seconde passe de ~20% sans perdre de détail.

Ce qui nécessitait des mises à jour :

  • Les nœuds d’injection LoRA : Mes LoRAs LTX-2 ne s’attachaient pas proprement à 2.3. Même quand le nœud me permettait de connecter, les résultats étaient mauvais, le style déviait ou s’effondrait. Plus de détails ci-dessous.
  • Chemins et formats de checkpoint : Les checkpoints 2.3 que j’ai testés étaient livrés avec des noms de dossiers différents et une référence de config légèrement différente. J’ai dû actualiser les chemins du nœud Checkpoint Loader et confirmer le couplage VAE.
  • Paramètres par défaut : Mes anciens préréglages « maison » (CFG 6,5, étapes ~30) produisaient un contraste plus dur sur 2.3. Baisser le CFG à ~5,5 et les étapes à ~24 a rétabli l’équilibre que j’appréciais.
  • Prompts négatifs : Je me suis moins appuyé sur de longues listes négatives. 2.3 semblait éviter nativement certains artefacts (les mains se sont légèrement améliorées dans mes poses produit). J’ai taillé les négatifs pour réduire la surcharge de prompt.

Changements de nœuds, chemins de checkpoint et différences de paramètres

  • Changements de nœuds : Je n’avais pas besoin de nouveaux nœuds personnalisés pour la génération de base, mais j’ai mis à jour mon nœud de chargement de modèle vers une version plus récente de ComfyUI pour éviter les incompatibilités de métadonnées. Si vous avez quelques mois de retard sur ComfyUI, mettez à jour d’abord, cela vous évitera des erreurs bizarres.
  • Chemins de checkpoint : Gardez les dossiers 2.0 et 2.3 séparés. J’utilise un schéma de nommage clair (nom_modèle/version/précision) pour que les jobs batch ne prennent pas le mauvais fichier.
  • Différences de paramètres : 2.3 semblait plus sensible aux variations de CFG. De petits changements (~0,5) avaient un impact visuel plus important que sur 2.0. De plus, moins d’étapes donnait un détail similaire : aller au-delà de ~26 étapes sur des images 1K donnait des rendements décroissants dans mes tests.

Compatibilité LoRA : pourquoi les LoRAs existants ne se transfèrent pas directement

C’était la plus grande surprise, et la plus coûteuse si vous avez construit une bibliothèque de styles sur LTX-2.

Mes LoRAs LTX-2 ne se transféraient pas de manière significative. En bref : les changements du modèle de base (espace d’embedding, blocs d’attention, parfois normalisation et changements VAE) signifient que les deltas appris ne se mappent pas proprement. Vous pouvez le forcer, mais vous vous battrez contre des casts de couleur étranges, une dérive de forme, ou le redouté « tout se transforme en plastique beige ». Si votre style dépend fortement des LoRAs, il est recommandé de traiter LTX-2.3 comme un nouveau modèle de base et de ré-entraîner en suivant le guide officiel de formation LoRA d’Hugging Face.

D’un point de vue pratique : si votre rendu dépend des LoRAs, attendez-vous à traiter LTX-2.3 comme une nouvelle base et à ré-entraîner.

Ce que vous devez ré-entraîner et le coût estimé

Ce que j’ai conservé :

  • Dataset : J’ai réutilisé mon ensemble nettoyé et légendé (environ 300–800 images par style, selon la variété). De meilleures légendes ont aidé davantage sur 2.3 que le volume brut.
  • Paramètres : Des taux d’apprentissage plus bas que ceux que j’utilisais pour 2.0 pour éviter de surcuire la saturation. Le rang/dim est resté similaire, mais j’ai légèrement réduit les étapes d’entraînement de ~10–15%.
  • Validation : J’ai validé tous les quelques centaines d’étapes avec les nouveaux prompts de base, pas les anciens. Les anciens prompts me biaisaient vers les mauvaises cibles.

Coûts, en termes humains approximatifs :

  • Temps : Environ 3–5 heures par LoRA sur un seul 4090 pour des ensembles de taille moyenne, y compris la validation et les petits redémarrages. Les bases distillées 2.3 s’entraînaient légèrement plus vite.
  • Cloud : Si vous louez, budgétez $0,80–$1,60/heure pour un GPU de classe 24 Go en mars 2026. Cela place un ré-entraînement propre unique dans la fourchette $3–$10, plus votre temps. Évidemment, des ensembles plus grands et plus d’expérimentation font monter la note.

Ça ne m’a pas fait gagner du temps au début. Mais après deux ou trois runs, mes LoRAs 2.3 nécessitaient moins de garde-fous dans les prompts, ce qui a réduit l’effort mental sur les lots futurs.

Utilisateurs d’API : différences d’endpoints et de paramètres à surveiller

Pour les APIs gérées, les différences ltx-2.3 vs ltx-2 étaient petites mais conséquentes :

  • Modèles versionnés : 2.3 se trouve souvent derrière un paramètre de modèle ou de version explicite. Si vous vous fiez à « latest », verrouillez-le sur 2.0 jusqu’à ce que vous ayez fini de tester.
  • Les valeurs par défaut ont bougé : Le guidance, le nombre d’étapes et les niveaux de sécurité ont changé chez mon fournisseur. Mes préréglages LTX-2 produisaient des images à contraste plus élevé sur 2.3 jusqu’à ce que j’abaisse le CFG de ~10–15%.
  • Types de seed : Une API est passée des seeds de 32 bits à des entiers 64 bits avec 2.3. Sans conséquence, sauf que mon ancien wrapper typait les seeds comme des chaînes. Il les ignorait silencieusement.
  • Prompts négatifs et syntaxe de poids : Vérifiez le formatage du tokenizer/poids. Un fournisseur a resserré l’analyse : mon ancienne syntaxe « (mot-clé:1.2) » nécessitait des espaces pour être prise en compte.
  • Limites de débit et traitement par lots : 2.3 fonctionnait légèrement plus vite par requête dans mes files d’attente, mais les plafonds de concurrence des lots n’ont pas changé. J’ai décalé les jobs pour éviter les pics courts.

En cas de doute, parcourez les notes de version de votre fournisseur et testez le même prompt/seed entre les versions. Attendez-vous à une composition similaire, pas à des pixels identiques.

Quand rester sur LTX-2 a encore du sens

J’aime les nouveaux jouets autant que n’importe qui, mais je ne reconstruis pas des systèmes qui fonctionnent sans raison. Je suis resté sur LTX-2 pour quelques projets parce que :

  • Vous avez besoin d’une reproductibilité stricte. Même seed, mêmes pixels, pour des audits, des workflows réglementés, ou des validations client liées à une version de modèle passée.
  • Vous avez de lourds investissements en LoRA. Si votre bibliothèque est profonde et diverse, le coût de ré-entraînement (temps, attention, pas seulement l’argent) s’accumule.
  • Contraintes de bord ou de VRAM faible. Si votre machine à 8 Go tient à peine le stack 2.0, les besoins supplémentaires en marge de 2.3 pourraient vous basculer dans l’offloading.
  • Coût de formation de l’équipe. Si les prompts et préréglages sont intégrés dans des docs et tutoriels, 2.3 forcera de petits changements cumulatifs. La mort par mille coupures est réelle.

En revanche, si vous partez de zéro ou que vous aimez une adhérence plus stricte aux prompts dès le départ, 2.3 était plus agréable à piloter.

Liste de contrôle pour la décision de mise à niveau(ComfyUI / API gérée)

Voici ce que j’ai réellement parcouru avant de changer de pipeline.

ComfyUI

  • Dupliquez le graphe et intégrez LTX-2.3 avec un nœud de chargement propre. Ne remplacez pas votre chemin 2.0.
  • Retrouvez votre paire étapes/CFG. Commencez à ~80% de vos anciennes étapes et baissez le CFG de 0,5–1,0.
  • Validez les seeds sur 5–10 prompts qui comptent pour vous. Acceptez la similarité de composition, pas l’identité de pixel.
  • Vérifiez les passes haute résolution/tuile pour les OOM. Si vous êtes juste, essayez fp8 ou réduisez le chevauchement.
  • Désactivez les LoRAs, puis réactivez-les un par un. S’il se comporte mal, planifiez un ré-entraînement plutôt que de bidouiller les poids.
  • Mettez à jour les modèles de prompts négatifs. Taillés si les résultats semblent plus propres : ne portez pas de bagages inutiles.

API gérée

  • Épinglez explicitement la version du modèle pendant les tests.
  • Recréez votre préréglage avec un CFG et des étapes abaissés, puis comparez la sortie et la latence.
  • Confirmez la gestion des seeds (largeur de bit, types) dans la documentation.
  • Vérifiez les indicateurs de sécurité et les filtres de contenu : vous devrez peut-être relâcher ou rehausser les seuils.
  • Exécutez un petit lot côte à côte (2.0 vs 2.3) et faites choisir les gagnants par un humain pour votre cas d’usage. Faites confiance aux yeux plutôt qu’aux métriques ici.

Si la plupart des cases restent vertes après une journée de tests légers, je mets à niveau. Si deux ou plus nécessitent du ruban adhésif, j’attends.

FAQ

Les LoRAs LTX-2 fonctionnent-ils sur LTX-2.3 sans ré-entraînement ?

Dans mes tests, pas de manière fiable. Le modèle de base change suffisamment pour que les styles dérivent ou s’effondrent. Vous pourriez obtenir des résultats passables avec des poids très doux, mais c’est fragile. Traitez 2.3 comme une nouvelle base et planifiez une nouvelle passe LoRA.

Les checkpoints LTX-2 et LTX-2.3 peuvent-ils coexister dans la même configuration ComfyUI ?

Oui. Gardez-les dans des dossiers séparés, mettez à jour les chemins de votre nœud Checkpoint Loader, et nommez vos préréglages avec la version. Je marque également les sorties avec le modèle dans le nom de fichier pour que les anciennes images ne se mélangent pas. C’est banal, mais ça vous sauve l’avenir.

Je terminerai sur une petite note : la première image 2.3 qui m’a fait marquer une pause était un simple plan produit-sur-étagère. Les lignes de l’étagère étaient enfin droites. Pas dramatique, juste une chose de moins à corriger plus tard. C’est généralement ainsi que se sentent les bonnes mises à niveau.

Articles précédents :