LTX-2 Local vs Cloud: ComfyUI vs WaveSpeed (Velocidad, Costo y Privacidad)

LTX-2 Local vs Cloud: ComfyUI vs WaveSpeed (Velocidad, Costo y Privacidad)

Una pequeña cosa me empujó a esto: una espera de 40 segundos. Había iniciado un lote en la nube LTX-2 y me fui a rellenar mi taza. Cuando volví, un trabajo falló con un error vago, y no podía saber si era yo, el preset, o el servicio. Esa pequeña pausa se quedó conmigo. A la mañana siguiente ejecuté el mismo preset localmente, y terminó antes de que mi aplicación de correo pudiera sincronizar. Ese contraste es de lo que trata este artículo: LTX-2 Local vs Nube, no como una lista de características, sino el peso que cada uno añade, o quita, de un día normal.

Probé ambas configuraciones a principios de enero de 2026 en mi MacBook Pro de 16 pulgadas (M2 Pro, 32 GB de RAM) y una pequeña caja Ubuntu con una RTX 4090, junto con la nube LTX-2 en una región de EE.UU. Tu hardware y región cambiarán los números, pero los compromisos se alinearon de formas familiares. Para más detalles técnicos sobre el modelo, consulta el documento de investigación LTX-2.

Tabla de decisión rápida (local vs nube por caso de uso)

Aquí está el camino rápido que desearía haber tenido antes de empezar a alternar.

Caso de usoEligePor qué se sintió correcto
Previsualizaciones simples, bucles de retroalimentación ajustadosLocalPrácticamente sin colas, iteración rápida, más fácil de depurar presets y prompts.
Lotes grandes con plazos firmesNubeTrabajos paralelos, mejor rendimiento, menos momentos de supervisión una vez que esté listo.
Datos sensibles (PII, activos no lanzados)LocalSin cargas: controlas la retención y el acceso por defecto.
Cargas de trabajo puntuales (algunas semanas pesadas, otras tranquilas)NubePagar por ráfagas: sin GPU inactiva zumbando bajo tu escritorio.
Sin conexión o internet inestableLocalObvio, pero importa en el momento en que el Wi-Fi se detiene.
Compartir en equipo y reproducibilidadNubePresets centralizados, registros y permisos reducen problemas de “funciona en mi máquina”.
Operaciones experimentales (compilaciones personalizadas, indicadores edge)LocalPuedes fijar versiones, probar ramas y revertir al instante.

No esperaba que fuera tan equilibrado. Pero después de una semana, me encontré previsualizando localmente por defecto y enviando cualquier cosa superior a 200 elementos a la nube.

Velocidad: Hardware local vs rendimiento en la nube

Claro, la velocidad se dividió en dos sensaciones diferentes para mí.

  • Local se sintió ágil para casos únicos. En el M2 Pro, un trabajo LTX-2 individual comenzó en ~1–2 segundos y terminó lo suficientemente rápido como para mantenerme en flujo. En la caja 4090, fue básicamente instantáneo una vez caliente.
  • La nube se sintió constante para volumen. El primer trabajo a veces esperó 5–15 segundos en cola, pero 50 trabajos paralelos suavizaron eso. El rendimiento ganó sobre la latencia.

Una pequeña nota del campo: los arranques en frío importan más de lo que admitimos. Los cachés locales, desde pesos hasta archivos intermedios, hicieron que las ejecuciones repetidas se sintieran más ligeras. No noté esto hasta que borré un caché y de repente todo se ralentizó. En la nube, no controlaba esa capa, así que acepté el pequeño impuesto de inicio a cambio de escala.

Lo que me sorprendió: mi previsualización única más rápida siempre fue local. Mi hora más rápida para 1.000 elementos siempre fue nube. El punto de pivote fue alrededor de 150–250 elementos para mí. Pasado eso, escribir un comando y dejar que el servicio se extienda salvó la tarde. Por debajo de eso, ejecutar una ejecución local me mantuvo en el trabajo.

Costo: Electricidad + Depreciación vs Créditos

Intenté poner precio a esto como un contador tranquilo, no como una persona de hype.

El costo local se ve así:

  • Hardware inicial (o arrendamiento mensual)
  • Electricidad (mi rig 4090 inactivo en ~90W y ~420W bajo carga)
  • Depreciación y mantenimiento (ventiladores, almacenamiento, la ocasional madriguera de controladores)

El costo en la nube se ve así:

  • Créditos por trabajo o por token
  • Posible egreso/almacenamiento si mantienes activos alrededor
  • Excedentes cuando los lotes aumentan

Dos bosquejos rápidos de mis notas:

  • Lote de 200 elementos, cada trabajo ~1 minuto: Local tomó ~220 minutos de reloj en mi Mac (sin GPU), prácticamente gratis excepto electricidad. La nube lo consumió en ~8–12 minutos con paralelismo, a un costo de crédito que fue fácil de justificar la semana en que estaba bajo presión. Más consejos de implementación están disponibles en GitHub.
  • Goteo continuo (20–30 elementos/día): Local ganó. Mantener la caja lista significó que absorbí el costo de una vez. Los créditos en la nube añadieron un pequeño costo cognitivo cada vez que presionaba ejecutar. No es caro, solo presente.

No creo que haya un único “más barato”. Si ya posees hardware capaz y tus cargas de trabajo son constantes, local es suave para la billetera. Si tu volumen es puntual, pagar por capacidad de ráfaga es mejor que poseer un calentador de espacio con ventiladores. Tuve un mes donde local fue casi gratis y otro donde la nube fue obviamente más inteligente.

Privacidad: Retención de datos y permisos de equipo

Esta parte fue simple para mí. Si es sensible, ejecuto LTX-2 localmente. No porque desconfíe de la nube, sino porque puedo dar cuenta de dónde viven los archivos.

Local:

  • Sin cargas. Los artefactos permanecen en mi disco o en mi compartición de red.
  • Puedo alinearme con mis propias reglas de retención: purga automática después de X días, cifrado en reposo, y ya está.

Nube:

  • Mejor control de equipo listo para usar: roles, límites de proyectos y registros que no dependen de mi memoria.
  • La retención es basada en políticas. Eso es bueno, pero sigue siendo un acuerdo con un proveedor. Lee los documentos y confirma los valores predeterminados: algunos servicios mantienen registros y artefactos más tiempo de lo que esperas.

Para la colaboración en un pequeño equipo, la nube se sintió más segura, no en el sentido de privacidad, sino en el sentido de “no perderemos el preset canónico”. Para cualquier cosa con activos no lanzados o PII, local mantuvo mis hombros relajados. Ambos pueden hacerse bien. Para pesos abiertos generales y referencias, puedes consultar Papers With Code.

Estabilidad: Actualizaciones de dependencias y bloqueos de nodos

Perdí una tarde en una actualización de controladores. Esa es la parte honesta de ejecutar localmente. Cuando funciona, es excelente. Cuando una dependencia se actualiza y otra se atrasa, eres el SRE.

Notas de campo de estabilidad local:

  • Fija todo lo que puedas. Contenedores, archivos env, incluso actualizaciones de SO si es necesario.
  • Mantén una lista de preset + versión “conocida como buena”. Guardo un archivo de texto corto junto al proyecto con el hash del commit y las banderas clave.
  • Espera el ocasional bloqueo bajo lotes pesados. Raramente es catastrófico, pero rompe el flujo.

Notas de campo de estabilidad en la nube:

  • Menos sorpresas: más cajas negras. Los trabajos generalmente se completan, y si no, los mensajes de error a veces son más corteses que útiles.
  • Las actualizaciones de proveedores se implementan sin ceremonia. Agradable cuando mejora la velocidad: molesto cuando un cambio cambia los resultados.

Ninguno es perfectamente tranquilo. Local te da palancas y tareas extra. La nube te da menos palancas y menos tareas. Elijo basándome en qué tipo de interrupción estoy dispuesto a tener esa semana.

Mejor enfoque híbrido (previsualización local + lote en la nube)

Lo que finalmente se quedó conmigo fue un ritmo simple:

  • Borrador y previsualización local. Mantengo un pequeño conjunto de muestras, 10–20 elementos, que refleja casos extremos. Itero hasta que los resultados se vean bien dos veces seguidas, no una.
  • Lote en la nube. Exporto el preset exacto y lo ejecuto con un nombre de trabajo con marca de tiempo. Veo los primeros 5% de registros, luego me voy.

Por qué se sintió correcto:

  • Las previsualizaciones locales mantienen la latencia cercana a cero. Puedo ajustar prompts, pesos o parámetros sin cambiar contexto.
  • Los lotes en la nube mantienen mi máquina libre. Puedo seguir escribiendo, o puedo cerrar la tapa e ir afuera.

Dos pequeños trucos que ayudaron:

  • Fijé mi “conjunto de previsualización”. Al principio, seguía intercambiando entradas y perdía la pista de qué cambió. Con un conjunto fijo, sé que las mejoras son reales.
  • Hago una instantánea de presets antes de cada ejecución grande. Incluso un cambio de versión menor puede ajustar los resultados: las instantáneas hacen que los diffs sean obvios.

En semanas con menos trabajos, a veces mantengo todo localmente, especialmente si estoy sin conexión o viajando. En semanas de producción, no lucho contra la nube. El punto de LTX-2 Local vs Nube no es lealtad, es elegir el entorno que reduzca la fricción para el trabajo que tienes delante. Por eso construimos WaveSpeed — para manejar previsualizaciones locales y ejecuciones de lotes en la nube sin supervisar colas. Es lo que nuestro equipo usa todos los días.

Lista de verificación de migración (transferencia de flujo de trabajo/preset)

Mover entre LTX-2 local y la nube fue más suave una vez que anoté los pasos. Esta es la lista de verificación que ahora uso. Es aburrida, por eso funciona.

Paridad de preset

  • Exporta/importa el preset en lugar de copiar a mano. Si una exportación directa no está disponible, almacena presets en control de versiones como JSON/YAML.
  • Fija versiones. Anota el ID del modelo/compilación, cualquier versión de extensión y banderas relevantes.
  • Registra configuraciones de semilla/aleatoriedad si el determinismo importa.

Rutas de activos

  • Normaliza rutas. Las rutas absolutas locales no existirán en la nube: usa rutas relativas o precarga activos en un bucket conocido o carpeta de proyecto.
  • Confirma códecs y formatos. Una falta de coincidencia aquí rompe conductos de forma silenciosa.

Entorno

  • Documenta variables de entorno y secretos por separado. Nunca hornees secretos en presets.
  • Alinea suposiciones de hardware. Si tu preset local espera un cierto volumen de memoria, prueba un lote más pequeño en la nube primero.

Validación

  • Ejecuta un lote en miniatura (1–5% del conjunto completo) y compara resultados entrada por entrada.
  • Mantén registros para la primera ejecución exitosa en cada entorno. Se convierten en la línea de base cuando algo se desvía después.

Reversión

  • Mantén un preset “última conocida como buena” en ambos lados. Nómbralo con una fecha y una nota corta como, “pre-CUDA update” o “seed locked for release v1.” Esto toma diez minutos tranquilos y se paga a sí mismo la primera vez que algo cambia bajo ti. Todavía olvido un paso de vez en cuando: la lista de verificación perdona eso.

Si estás considerando LTX-2 Local vs Nube, esta es la parte con la que comenzaría de todas formas. Incluso si nunca cambias, anotar tus suposiciones tiene una manera de calmar el trabajo.