← ブログ

GoogleのミステリアスなOmniビデオモデル:I/O 2026直前のGemini UIリークが示すもの

GoogleはGemini内で「Omni」と呼ばれる新しい動画生成モデルをテストしているようで、Google I/O 2026を前にUIの文字列から発見されました。現時点でわかっていること、わかっていないこと、そしてWaveSpeedAI上のVeoを含めてなぜ重要なのかを解説します。

1 min read
GoogleのミステリアスなOmniビデオモデル:I/O 2026直前のGemini UIリークが示すもの

GoogleのミステリアスなOmniビデオモデル:I/O 2026前夜のGemini UIリークが示すもの

小さなUI文字列だけが今のところ全てのストーリーだが、それは非常に興味深い配置に置かれた文字列だ。TestingCatalog が報告したところによると、Geminiのビデオ生成タブから取得した新しいスクリーンショットに、これまで見たことのない一行が含まれていた:「Start with an idea or try a template. Powered by Omni.」 Omniは「Toucan」——Geminiの現行ビデオツールの内部コードネームで、すでにVeo 3.1によって動作しているもの——のすぐ隣に登場している。

Google I/O 2026の開幕(5月19〜20日)まで2週間を切った今、このリークは無視できないものだ。リークが示唆するもの、まだ曖昧な点、そして2026年のビデオ生成レースにおけるこの動きの位置づけを整理する。

実際に発見されたもの

唯一の証拠は、GeminiのビデオGEmini体験からのUIプレースホルダーテキストだ。それが単なるノイズではないと言える理由が2つある:

  1. この文字列はユーザーから見える位置にある——ソースコードやフィーチャーフラグの奥深くに埋もれているわけではない。ブランド名に言及するUIのコピーがこの状態に達するのは、チームがパブリックリリースの準備をしている時だけだ。
  2. 配置が「Toucan」の隣にある——GeminiにおけるGoogleの現行Veo 3.1バックビデオ生成パスウェイの既知の内部コードネームだ。新しいコードは古いコードの隣に置かれる。既存のものの隣に新しいプロダクト名が置かれるのは、入れ替え前の標準的なステージングパターンだ。

TestingCatalogのThreads投稿はこう要約している:「GoogleがGemini Omniをビデオ生成向けにリリースするなら、Veo 3.1を上回る性能になる可能性が高い。」

「Omni」が実際に意味し得るもの

3つの解釈を、変革度の低い順に挙げる:

1. 新しいVeoラッパー

最も無難な説明:Omniは、実際の生成は依然としてVeo 3.xまたはVeo 4が行う、GeminiのビデオタブのNewブランド名だ。Geminiネイティブな単一名称へのブランド統合(静止画においてNano BananaがGemini 3 / 3.1 Flash Image上に位置するように)は、なぜ公開向けの文字列が出現しているのかを説明できる。

2. Geminiがトレーニングした新しいビデオモデル

GoogleはGeminiの傘下でVeoと並立または置き換えるための社内ビデオモデルをトレーニングした可能性がある。現在の分裂——ビデオはVeo、画像はNano Banana / Gemini——は十分に不整合であり、モデルチームには統一する理由がある。Omniはその結果であり、Veo 3.1とは異なる独自のアーキテクチャとベンチマークプロフィールを持つことになる。

3. 真のオムニモデル——画像・ビデオ・その他を統合した単一システム

最も野心的な解釈であり、名前が示唆するもの:GPT-4oがテキスト・画像・音声において位置づけられているように、画像生成、ビデオ生成、さらには音声を同一システムで扱う、単一のGemini omniモデルだ。もしこれが本当なら、Geminiはビデオ出力を持つ初のトップクラスのオムニモデルとなる——意義深い初の試みだ。

リークされた文字列ではこれらを区別できない。しかし選択肢(3)だけが、Veoのバージョン番号を上げるだけでなく、「Omni」というまったく新しいパブリックブランド名を正当化できる。

2026年のビデオ生成レースにおけるこの動きの意味

ビデオ生成は今、生成AIの中で最も競争が激しいカテゴリーだ。現在のリーダーボードの状況(おおよそ):

  • ByteDance Seedance 2.0は公開ベンチマークの首位にあり、FastおよびTurboバリアントが大量生産向けに映画的なAIビデオを経済的に実現している。
  • Alibaba Wan 2.7は、テキストtoビデオ、画像toビデオ、動画編集、リファレンスtoビデオを、1080pの音声同期モーションで提供している。
  • Kuaishou Kling V3.0(Std + Pro + O3)は、WanやSeedanceと並んでアジア主導の波を支えている。
  • OpenAI Sora 2は現在広く利用可能で、高解像度向けProバリアントも存在する。
  • Google Veo 3.1は映画的なカメラワークと音声ビジュアル同期において高みを維持しているが、利用が制限され地域もロックされていた。

Veo 3.1を真に上回るGemini Omniのリリース——TestingCatalogが設定したバー——は、ビデオ出力を持つ初のトップクラスのマルチモーダル統合モデルとなり、GoogleがVeo / Imagen / Nano Bananaという分散した形ではなく単一名称の製品ラインで競争することを選んだ初めての機会となる。

発表のタイミング

Google I/O 2026は2026年5月19〜20日に開催される。GeminiとAIのアップデートがアジェンダとして確認されている。I/O前に新しいパブリックな名称が入ったUIリークが表面化するパターンは、基調講演でのサプライズ発表と一致している。

とはいえ、Googleが壇上で発表するまでは全て憶測として扱うべきだ。UIの文字列がプロダクトローンチなしに出荷されたことは過去にもある。このリークの最も堅実な解釈は:GoogleはGemini上でOmniという名前のビデオプロダクトを最終ステージングに入れており、ローンチの最も可能性の高いウィンドウはここから2週間以内だ。

WaveSpeedAIユーザーへの意味

Veo 3.1はすでにWaveSpeedAIで利用可能であり、公開リリース後すぐに新しいGeminiビデオモデルをプラットフォームに追加する予定だ——同じシングルAPIキー、同じOpenAI互換LLMエンドポイントパターン、同じ秒単位の料金体系で。

OmniがVeo 3.1を置き換えるか補完するなら、私たちがすでにホストしているビデオ生成ラインナップに対してA/Bテストが可能になる:

  • Seedance 2.0 — ベンチマーク現在のSOTA
  • Wan 2.7 — Alibabaの映画的ビデオモデル
  • Kling V3.0 Pro — Kuaishouの高忠実度オプション
  • Sora 2 — OpenAIの提供
  • Veo 3.1 — 現在のGoogleビデオモデル

GoogleがI/OでOmniをリリースすれば、ローンチの数日後に同じAPIで比較できるようになるはずだ。

よくある質問

Googleの「Omni」ビデオモデルとは何か?

GeminiのビデオGenerate生成タブで発見されたUI文字列に基づくと、Omniは現在のVeo 3.1で動作するGeminiビデオフローを置き換えるか補完する、Googleの新しいビデオ生成モデルまたはプロダクトブランドと見られる。公式発表はまだない。

OmniはVeo 3.1を置き換えるのか?

不明だ。3つの可能性のある解釈がある:(1) Omniは同じVeoベースのパスウェイに対する新しいパブリックな名称;(2) OmniはVeoと並立するGeminiがトレーニングした新しいビデオモデル;(3) Omniは画像とビデオを一つのシステムで扱う統合Gemini omniモデル。確認できるのはGoogleだけだ。

GoogleはいつOmniを発表するのか?

最も可能性の高いウィンドウは、GeminiとAIのアップデートをアジェンダに確認しているGoogle I/O 2026(5月19〜20日)だ。

OmniはSeedance 2.0を上回るのか?

ByteDance Seedance 2.0は現在、ほとんどの公開ビデオ生成ベンチマークでトップにある。Omniがそれを超えられるかどうかは、フードの下に何があるかにまったくかかっている——そのいずれもまだ分かっていない。

OmniはWaveSpeedAIで利用可能になるのか?

GoogleがOmniを公開リリースすれば、既存のVeo 3.1、Seedance 2.0、Wan 2.7、Kling V3.0、Sora 2のビデオモデルと並んで、WaveSpeedAIのモデルカタログにその後すぐに追加される予定だ。

続報に注目

I/Oまで2週間。Googleが何かを確認した当日にこの投稿を更新する。それまでの間、既存のVeo 3.1とビデオ生成ラインナップの残りは、一つのAPIのもとWaveSpeedAI上でライブで利用可能だ。

出典:TestingCatalog(ウェブ投稿Threads)。