WaveSpeedAI LTX 2 19b Ic LoRA Trainer、WaveSpeedAIに登場
LTX-2 19B IC-LoRA トレーナーのご紹介:カスタムビデオ変換を実現
AI動画生成の世界は新たな時代に突入しました。WaveSpeedAIにLTX-2 19B IC-LoRA トレーナーがローンチされたことで、クリエイターと開発者は、複雑なGPUインフラを管理することなく、深度制御、ポーズ適応、ビデオ復元、スタイル転送など、正確なビデオ・ツー・ビデオ変換用のカスタムIn-Context LoRAアダプターをトレーニングできるようになりました。
LTX-2 IC-LoRA トレーナーとは?
LTX-2 IC-LoRA トレーナーは、Lightricksの強力な190億パラメータ拡散変換器アーキテクチャ上に構築された専門的なトレーニングサービスです。視覚的なスタイルやエフェクトを単に変更する従来のLoRAとは異なり、**In-Context LoRAs(IC-LoRAs)**は参照信号に基づいてビデオ生成を条件付けできます。これにより、フレームレベルの空間構造と動きの精密な制御が可能になります。
つまり、深度マップ、ポーズスケルトン、エッジ検出、またはあなたが提供する任意のペアビデオデータに基づいてビデオを変換するカスタムアダプターをトレーニングできます。その結果、生成されたAIビデオは正確な構造制御を維持しながら、LTX-2ベースモデルの創造的な柔軟性を引き継ぎます。
主な機能
- ビデオ・ツー・ビデオ変換トレーニング:ペアになったビデオデータセットをアップロードして、深度マップアニメーションからキャラクターモーション変換まで、カスタム制御タスク用のアダプターをトレーニング
- 複数の制御モダリティ:深度制御、ポーズ制御、Cannyエッジ検出、ビデオ復元、スタイル転送など、多様なアダプターを作成
- 軽量LoRAアーキテクチャ:Low-Rank Adaptationはファイルサイズを小さく保ちながら複雑な変換をキャプチャし、デプロイメントを高速かつ効率的に
- シームレスな統合:トレーニング済みLoRAはLTX-2テキスト・ツー・ビデオLoRAおよびイメージ・ツー・ビデオLoRA推論エンドポイントと直接連携
- 複数アダプターのスタック:最大3つのLoRAモジュールを同時にロードして、組み合わせ効果とコントロールを実現
- 設定可能なトレーニングパラメータ:ステップ数、学習率、LoRAランクを微調整して、品質、トレーニング時間、アダプター容量のバランスを取る
強力なユースケース
深度とポーズ制御アダプター
深度マップやポーズスケルトンを完全に実現されたビデオに変換するカスタムアダプターをトレーニング。このワークフローにより、3Dシーンレイアウトをアニメーション化したり、参照パフォーマンスからキャラクターモーションを変換したり、スケルトンアニメーションを正確に追従するビデオを生成することが可能になります。LTX-2の高品質な出力を維持しながら実現します。
ビデオ復元と詳細強化
細かいテクスチャを強化し、生成ビデオの詳細を復元するディテーラーIC-LoRAを作成。低品質と高品質のビデオサンプルのペアでトレーニングすることで、特定のコンテンツタイプまたはビジュアルドメイン用の出力品質を向上させる復元アダプターを構築できます。
スタイル転送パイプライン
ビデオ生成を特定の美的ガイドラインにロック。シネマティックルック、アニメスタイル、ブランドカラーパレット、または芸術的な処理を適用。ソースと様式化されたビデオのペアでトレーニングして、あらゆるコンテンツをあなたのシグネチャーなビジュアルスタイルに変換するアダプターを作成します。
ブランド一貫性のあるコンテンツ制作
マーケティングチームと代理店向けに、生成されたすべてのビデオがブランドガイドラインに準拠することを保証するアダプターをトレーニング。モーションパターンからカラーグレーディングまで、カスタムIC-LoRAはスケーラブルなビデオ制作用の再利用可能なアセットになります。
モーションパターン学習
生地の流れ、パーティクルの動き、ユニークなアニメーションスタイルなど、特定のモーション動力学をキャプチャ。トレーニング済みアダプターはこれらのモーションパターンを新しいコンテンツに適用でき、プロジェクト全体でモーションブランディングの一貫性を実現します。
WaveSpeedAIで始める
WaveSpeedAIでカスタムIC-LoRAをトレーニングするのは簡単です:
ステップ1:トレーニングデータを準備
実現したい変換を示すペアになったビデオを含むZIPファイルを作成。深度制御の場合、深度マップビデオとその対象出力を含めます。スタイル転送の場合、ソースビデオとスタイル化されたバージョンをペアにします。最良の結果を得るには、10〜20の多様で高品質な例を含めてください。
ステップ2:トレーニングを設定
トレーニング済み変換を活性化させるユニークなトリガーワードを設定。「depth2vid」や「mystyle_v1」のような、一般的な語彙と競合しない独特なものを選択。
ニーズに基づいてパラメータを調整:
- ステップ数(デフォルト:500):より多いステップで細かい詳細をキャプチャしますが、トレーニング時間が増加
- 学習率(デフォルト:0.0002):より低い値でより安定したトレーニングを提供
- LoRAランク(デフォルト:32):より高いランク(32-64)でより劇的な変換を可能に
ステップ3:トレーニングを実行
WaveSpeedAI APIを通じてトレーニングジョブを送信。システムはすべてのGPU割り当てと最適化を自動的に処理します。
import wavespeed
output = wavespeed.run(
"wavespeed-ai/ltx-2-19b/ic-lora-trainer",
{
"data": "https://your-storage.com/training-pairs.zip",
"trigger_word": "depth2vid",
"steps": 500,
"lora_rank": 32
},
)
print(output["outputs"][0]) # LoRA weights URL
ステップ4:アダプターをデプロイ
トレーニングが完了すると、LTX-2推論エンドポイントと互換性のある.safetensorsファイルを受け取ります。カスタムIC-LoRAをLTX-2 19B Text-to-Video LoRAまたはLTX-2 19B Image-to-Video LoRAモデルに適用して、即座に使用します。
透明な価格設定
トレーニングコストは設定に応じて比例して変動します:
| トレーニングステップ | 価格 |
|---|---|
| 100ステップ | $0.75 |
| 500ステップ | $3.75 |
| 1,000ステップ | $7.50 |
| 2,000ステップ | $15.00 |
わずか100ステップあたり$0.75で、より長いトレーニング実行にコミットする前に異なる設定を手ごろな価格で試験できます。
WaveSpeedAIでトレーニングする理由
- コールドスタートなし:トレーニングジョブはGPU割り当てを待つことなく即座に開始
- インフラ管理なし:48GB以上のVRAMマシンのプロビジョニングの複雑さをスキップ
- 即座なデプロイメント:トレーニング済みLoRAはWaveSpeedAIの最適化された推論エンドポイントに直接デプロイ
- 手頃な実験:インフラロックインなしで複数の設定と反復を試験
- 本番対応の出力:より広いLTX-2エコシステムと互換性のある標準的な
.safetensorsファイルをエクスポート
より良い結果のためのプロTips
- データセットの多様性:アダプターが対応すべき異なるシナリオをカバーする多様な例を含める
- 一貫した品質:高解像度でよくペアされたトレーニングデータを使用。ゴミを入れればゴミが出ます
- 小さく始める:500ステップとデフォルト設定から始めて、必要に応じてパラメータを増加
- ユニークなトリガー:通常のプロンプトに出現する可能性が低い独特でユニークなトリガーワードを選択
- 迅速に反復:手頃な価格設定により、最適な設定を見つけるために複数の実験を実行できます
今日からトレーニングを開始
LTX-2 19B IC-LoRA トレーナーはAIビデオ生成における制御の新しい次元を開きます。ブランドコンテンツ用の本番パイプラインを構築している場合、クリエイティブツール用の専門的な制御アダプターを作成している場合、またはノベルなビデオ変換エフェクトを開発している場合でも、このトレーナーはあなたの正確なニーズに合わせてLTX-2の動作をカスタマイズする力を与えます。
WaveSpeedAI上でLTX-2 19B IC-LoRA トレーナーを詳しく見る →
AIビデオで可能なことの限界を押し広げる準備はできていますか?今日、最初のカスタムIC-LoRAをトレーニングして、ビデオコンテンツの制作方法を変革しましょう。





