API d'inpainting Z-Image-Turbo : Workflow de masque + Corrections d'artefacts
Guide complet d'inpainting Z-Image-Turbo. Apprenez la création de masques, les invites en langage naturel, les techniques de fusion transparente et comment corriger les artefacts courants. 0,02 $/image.
Bonjour, je m’appelle Dora. Un petit détail m’a bloquée la semaine dernière : un reflet sur une photo produit que je devais réutiliser. Je ne voulais pas une session de retouche complète, juste une retouche légère. J’ai ouvert mes outils habituels, puis je me suis arrêtée. J’avais vu des mentions de l’API Z-Image-Turbo Inpainting et je me demandais si elle pouvait s’intégrer à ma routine sans transformer une correction de cinq minutes en véritable projet. Alors je l’ai essayée, progressivement, sur quelques tâches réelles, en prenant des notes au fil de l’eau.
Qu’est-ce que l’inpainting IA ?
L’inpainting, c’est l’équipe de nettoyage de la retouche d’image. Vous masquez une zone, décrivez ce que vous voulez à la place (ou que vous ne voulez rien), et le modèle remplit l’espace pour s’harmoniser avec le reste de l’image.
Ce que j’apprécie dans l’inpainting, c’est son côté chirurgical. Vous ne demandez pas au modèle d’inventer toute une scène, juste de respecter celle que vous avez déjà. Quand ça fonctionne bien, la retouche disparaît. Quand ça ne fonctionne pas, on voit des coutures, des textures étranges, ou un petit « brouillard IA » à l’endroit du patch, et on sait qu’on a été trop loin.
Comment fonctionne Z-Image-Turbo Inpaint
J’ai testé l’inpainting de Z-Image-Turbo de janvier à février 2026, sur une poignée de tâches : suppression de reflets, nettoyage d’arrière-plan, et quelques échanges d’objets. Le flux est standard : envoyer une image, un masque binaire et un prompt à l’API Z-Image-Turbo Inpainting. Le modèle ne modifie que la zone masquée et tente de la fondre dans le contexte environnant.
Deux détails ont compté en pratique :
- Les bords du masque : les bords doux se fondaient mieux. Les bords nets créaient des coutures.
- Le prompt : les prompts courts et littéraux fonctionnaient le mieux. Une description trop détaillée rendait le modèle approximatif.
En termes de vitesse, les résultats revenaient en quelques secondes, ce qui était amplement suffisant pour une tâche asynchrone dans mon flux de travail. Selon la documentation de WaveSpeed, Z-Image-Turbo Inpaint est optimisé pour une faible latence et des résultats nets, ce qui le rend prêt pour la production en traitement par lot et en itération rapide. La qualité tenait bien pour les retouches petites à moyennes. Les remplacements plus larges et complexes nécessitaient quelques essais supplémentaires ou des masques plus petits.
Flux de travail de l’API
J’ai gardé le flux de travail simple : conserver l’image source telle quelle, masquer uniquement ce que je veux modifier, et rédiger le prompt en langage courant.
Entrées requises : image + masque + prompt
Voici le minimum que j’ai utilisé encore et encore :
- Image : PNG ou JPEG. J’ai conservé la résolution originale pour éviter les artefacts de mise à l’échelle.
- Masque : même largeur et hauteur que l’image. Blanc = modifiable. Noir = protégé. Si votre version de l’API inverse cela, il existe généralement un paramètre pour inverser.
- Prompt : une phrase suffit. « Supprimer le reflet sur le plan de travail. » Ou « Remplacer la tasse par une tasse en céramique blanche unie. »
Les paramètres optionnels qui ont aidé :
- Guidage/intensité : plus faible pour un nettoyage subtil, plus élevé pour les remplacements complets.
- Graine (seed) : définir une graine pour reproduire un bon résultat.
- Étapes : je l’ai maintenu à un niveau modéré : plus d’étapes ne signifiait pas toujours mieux.
Exigences du format de masque
Cette partie a fait la plus grande différence sur la qualité :
- Utilisez un masque binaire (blanc pur et noir pur). Si vous avez besoin de douceur, estompez légèrement le bord, mais évitez le flou grisâtre sur toute la région.
- Faites correspondre les dimensions exactement. Si le masque est décalé d’un pixel, l’API se plaindra ou se désalignera.
- Gardez la zone masquée serrée. Les masques plus petits donnent au modèle moins d’occasions d’halluciner.
- Faites attention aux détails fins. Pour les mèches de cheveux ou les câbles, un masque doux légèrement plus grand se fondait mieux qu’un masque dur ultra-fin.
Si vous retouchez près des bords, étendez le masque juste au-delà de la limite. Cela donne au modèle de la place pour peindre sous la couture et évite l’aspect « autocollant ».
Implémentation Python
Je n’en ai pas fait une bibliothèque complète. J’ai utilisé une requête courte dans un petit script utilitaire. L’essentiel :
- Envoyer une requête POST à l’endpoint Z-Image-Turbo Inpainting avec des données de formulaire multipart.
- Joindre : le fichier image, le fichier masque, la chaîne de prompt, et tous les paramètres optionnels (guidage, étapes, graine, taille de sortie si nécessaire).
- Gérer la réponse : une image en base64 ou une URL à récupérer. Sauvegarder, puis prévisualiser avant de l’intégrer dans votre pipeline.
Quelques notes pratiques issues de la configuration :
- Surveillez les limites de taux. J’ai traité les retouches par lots et ajouté un backoff pour éviter les nouvelles tentatives.
- Journalisez le prompt exact, la graine et les paramètres avec chaque image sauvegardée. Quand j’obtenais un bon résultat, cela permettait de le reproduire facilement.
- Si vous construisez une interface utilisateur, prévisualisez la superposition du masque sur l’image source. J’ai détecté deux désalignements de masque de cette façon avant d’envoyer les requêtes.
Rédiger des prompts d’inpainting efficaces
La plupart de mes succès venaient de prompts plus courts et plus littéraux. Le masque fait l’essentiel du travail : le prompt doit orienter, pas narrer.
Prompts de suppression (« surface propre »)
Quand je devais simplement supprimer quelque chose, j’écrivais des prompts décrivant l’absence et le rendu souhaité : « Supprimer le reflet : garder une surface mate et uniforme », ou « Supprimer les taches de poussière : préserver le grain du bois. » Le modèle respectait mieux la texture environnante quand je la mentionnais.
Un petit conseil : évoquez l’éclairage quand c’est important. « Conserver un éclairage doux d’après-midi » évitait les zones lumineuses.
Prompts de remplacement (décrire le nouveau contenu)
Pour les échanges, j’étais précise mais concise :
- « Remplacer la tasse rouge par une tasse en céramique blanche unie, taille similaire, éclairage neutre. »
- « Remplir le vide avec une texture de béton assortie : sans motif. »
J’évitais les adjectifs qui invitent au style (par exemple, « magnifique », « cinématographique »). Ils encourageaient le modèle à inventer. Les indications de mesure aidaient aussi. « Taille similaire » ou « même angle » réduisait les décalages de perspective gênants.
Prompts contextuels
Quand la scène avait un aspect fort — lumière chaude, ombres douces, faible profondeur de champ — je l’indiquais dans le prompt. Selon les tests communautaires sur RunComfy, Z-Image-Turbo Inpainting montre une forte continuité de texture, un éclairage réaliste et une gestion précise de la perspective lorsque les prompts font explicitement référence au contexte de la scène existante. L’API Z-Image-Turbo Inpainting semblait se nourrir de ces indices. « Correspondre à la lumière chaude existante, ombre douce à gauche » faisait plus qu’un vague « réaliste ».
Si le contexte environnant était faible (motifs chargés, peu de détails), je réduisais le masque et effectuais deux passes : d’abord structurelle (forme), puis de surface (texture/lumière). Cela prenait une minute de plus, mais le résultat final paraissait moins IA.
Applications pratiques
Voici les cas où l’API Z-Image-Turbo Inpainting a gagné sa place dans ma semaine.
Nettoyage de photos produit
J’en ai fait passer un petit lot de photos de table : égratignures parasites, un pli dans un fond, et un point chaud bizarre causé par une lampe. Les prompts de suppression suffisaient. En termes de temps, j’ai économisé environ 3 à 4 minutes par image par rapport à la correction manuelle. Le vrai gain était l’effort mental — moins de micro-décisions.
Supprimer des objets indésirables
J’ai testé avec des photos de rue : une poubelle près d’une devanture et un passant partiel en bord de cadre. Avec des masques serrés et une indication sur « continuer le motif de briques » ou « étendre la texture du trottoir », les remplissages se fondaient bien. Les grandes suppressions sur des textures complexes nécessitaient encore quelques essais.
Remplacement d’arrière-plan
Les échanges complets d’arrière-plan sont plus délicats. Pour les scènes simples — objets de bureau sur papier — je pouvais remplacer l’arrière-plan par un dégradé uni et conserver les ombres naturelles en masquant sous les objets, pas autour. Les cheveux complexes sur un arrière-plan chargé étaient plus difficiles. Je n’aurais recours à l’inpainting ici que si le masque est propre et le nouvel arrière-plan simple.
Corriger les artefacts courants
Quand quelque chose semblait « bizarre », c’était généralement l’un de ces cas.
Coutures visibles aux bords du masque
Symptôme : un contour léger à l’endroit où le patch rejoint l’original.
Ce qui a aidé :
- Estomper légèrement le bord du masque et relancer.
- Augmenter la zone masquée de quelques pixels pour que le modèle peigne sous la couture.
- Réduire légèrement le guidage si le remplissage est trop stylisé par rapport à une scène neutre.
Décalage de couleur/éclairage
Symptôme : le patch a la bonne forme, mais pas le bon éclairage.
Ce qui a aidé :
- Mentionner la direction et la chaleur de la lumière dans le prompt : « correspondre à la lumière chaude de droite, ombres douces. »
- Réduire légèrement les étapes. J’ai constaté qu’un échantillonnage plus lourd dérivait parfois les couleurs.
- Si toute la photo est étalonnée en couleur, effectuez l’inpainting avant l’étalonnage, puis appliquez à nouveau l’étalonnage au résultat final.
Incohérence de texture
Symptôme : les surfaces semblent floues ou trop uniformes.
Ce qui a aidé :
- Décrire la texture explicitement (« texture de toile fine », « grain de bois subtil »).
- Réduire le masque et remplir par étapes : structure d’abord, texture ensuite.
- Ajouter un tout petit peu de bruit ou de grain après coup pour fondre l’ensemble. Ce n’est pas puriste, mais c’est efficace.
Pour dire pourquoi cela m’importe : l’inpainting n’est pas spectaculaire, mais il réduit la friction sur les petites retouches ingrates. L’API Z-Image-Turbo Inpainting n’a pas changé mon processus : elle s’y est glissée. Si vous faites beaucoup de nettoyage léger ou d’échanges d’objets occasionnels et que vous êtes à l’aise pour dessiner des masques, c’est une bonne option. Si vous voulez réécrire des scènes entières, vous passerez toujours du temps à affiner les masques et les prompts.
Une dernière note de mes tests : les meilleurs résultats sont venus quand j’ai traité les prompts comme des indications de mise en scène et les masques comme des frontières. Des rôles clairs. Le modèle s’en est bien sorti avec ça. Et je suis encore curieuse de voir jusqu’où je peux pousser de tout petits masques sur des textures délicates sans ce brouillard caractéristique — c’est le prochain point sur ma liste. Et vous ?





