← Blog

Googles mysteriöses 'Omni'-Videomodell: Was der Gemini-UI-Leak uns vor dem I/O 2026 verrät

Google scheint ein neues Videogenerierungsmodell namens Omni innerhalb von Gemini zu testen, das durch einen UI-String entdeckt wurde, der vor dem Google I/O 2026 aufgetaucht ist. Hier ist, was wir wissen, was wir nicht wissen und warum es wichtig sein könnte – auch für Veo auf WaveSpeedAI.

6 min read
Googles mysteriöses 'Omni'-Videomodell: Was der Gemini-UI-Leak uns vor dem I/O 2026 verrät

Googles mysteriöses „Omni”-Videomodell: Was der Gemini-UI-Leak uns vor Google I/O 2026 verrät

Ein einzelner UI-String ist bislang die gesamte Geschichte – doch es ist ein String mit sehr interessanter Platzierung. TestingCatalog berichtet, dass ein neuer Screenshot aus Geminis Videoerstellungs-Tab eine bisher unbekannte Zeile enthält: „Start with an idea or try a template. Powered by Omni.” Omni erscheint direkt neben „Toucan” – dem internen Namen für Geminis aktuelles Videowerkzeug, das bereits von Veo 3.1 angetrieben wird.

Zwei Wochen vor der Eröffnung von Google I/O 2026 (19.–20. Mai) ist das ein Gerücht, das man kaum ignorieren kann. Hier erfahren Sie, was der Leak vermuten lässt, was noch unklar ist und wie dies in das größere Videoerstellungs-Rennen des Jahres 2026 einzuordnen ist.

Was tatsächlich entdeckt wurde

Das einzige Beweisstück ist ein UI-Platzhaltertext aus Geminis Videoerstellungserfahrung. Zwei Details heben es über reines Rauschen hinaus:

  1. Der String ist für Benutzer sichtbar, nicht nur tief im Quellcode oder in Feature-Flags vergraben. UI-Text, der einen Markennamen erwähnt, erreicht diesen Zustand typischerweise erst dann, wenn das Team eine öffentliche Veröffentlichung vorbereitet.
  2. Die Platzierung ist neben „Toucan” – einem bekannten internen Codenamen für Googles aktuellen, von Veo 3.1 gestützten Videoerstellungspfad in Gemini. Neuer Code lebt neben altem Code. Ein neuer Produktname, der neben einem bestehenden geparkt wird, ist das übliche Staging-Muster vor einem Wechsel.

TestingCatalogs Threads-Post fasst es zusammen: „Wenn Google plant, Gemini Omni für die Videogenerierung zu veröffentlichen, würde es wahrscheinlich Veo 3.1 übertreffen.”

Was „Omni” tatsächlich sein könnte

Drei Lesarten, in aufsteigender Reihenfolge ihrer Tragweite:

1. Ein neuer Veo-Wrapper

Die am wenigsten disruptive Erklärung: Omni ist der neue Produktname für Geminis Video-Tab, wobei Veo 3.x oder Veo 4 weiterhin die eigentliche Erstellung übernehmen. Eine Markenkonsolidierung unter einem einzigen Gemini-nativen Namen (ähnlich wie Nano Banana auf Gemini 3 / 3.1 Flash Image für Standbilder sitzt) würde erklären, warum überhaupt ein öffentlich sichtbarer String auftaucht.

2. Ein neues, Gemini-trainiertes Videomodell

Google hat möglicherweise ein hauseigenes Videomodell unter dem Gemini-Dach trainiert, das neben Veo steht oder es ersetzt. Die heutige Aufteilung – Veo für Video, Nano Banana / Gemini für Bilder – ist unhandlich genug, dass das Modell-Team Gründe hat, sie zu vereinheitlichen. Omni wäre das Ergebnis, mit einer eigenen Architektur und einem eigenen Benchmark-Profil, das sich von Veo 3.1 unterscheidet.

3. Ein echtes Omni-Modell – ein einzelnes System für Bild + Video + mehr

Die ambitionierteste Lesart – und die, die der Name nahelegt: ein einzelnes Gemini-Omni-Modell, das Bildgenerierung, Videogenerierung und möglicherweise Audio in einem System verarbeitet, ähnlich wie GPT-4o für Text-Bild-Audio positioniert ist. Wenn das zuträfe, wäre Gemini das erste erstklassige Omni-Modell mit Video-Ausgabe – ein bedeutender Meilenstein.

Der geleakte String kann zwischen diesen Möglichkeiten nicht unterscheiden. Aber Option (3) ist die einzige, die einen brandneuen öffentlichen Namen wie „Omni” rechtfertigt, anstatt einfach Veos Versionsnummer zu erhöhen.

Warum das für das Video-Gen-Rennen 2026 wichtig ist

Videogenerierung ist derzeit die wettbewerbsintensivste Kategorie in der generativen KI. Der aktuelle Stand der Rangliste, ungefähr:

  • ByteDance Seedance 2.0 führt die öffentlichen Benchmarks an, wobei die Fast- und Turbo-Varianten kinematografische KI-Videos für die Hochvolumenproduktion wirtschaftlich rentabel machen.
  • Alibaba Wan 2.7 bietet Text-zu-Video, Bild-zu-Video, Video-Editing und Referenz-zu-Video mit audiosynchroner Bewegung in 1080p.
  • Kuaishou Kling V3.0 (Std + Pro + O3) verankert die asiengeführte Welle neben Wan und Seedance.
  • OpenAI Sora 2 ist weit verbreitet verfügbar, mit einer Pro-Variante für höhere Auflösung.
  • Google Veo 3.1 hält die Spitzenposition für kinematografische Kameraarbeit und audiovisuelle Synchronisierung, ist jedoch eingeschränkt und regional gesperrt.

Eine Gemini-Omni-Veröffentlichung, die Veo 3.1 tatsächlich übertrifft – die Messlatte, die TestingCatalog setzt – wäre das erste erstklassige multimodale vereinheitlichte Modell mit Video-Ausgabe und das erste Mal, dass Google sich entschieden hat, mit einer einzigen Produktlinie zu konkurrieren, anstatt mit einer Veo / Imagen / Nano Banana-Aufteilung.

Wann die Enthüllung zu erwarten ist

Google I/O 2026 findet am 19.–20. Mai 2026 statt. Gemini- und KI-Updates sind bestätigte Tagesordnungspunkte. Ein Muster von Pre-I/O-UI-Leaks, die einen neuen öffentlichen Namen enthüllen, ist konsistent mit einer Enthüllung bei der Keynote.

Dennoch sollte all dies als spekulativ betrachtet werden, bis Google es offiziell bestätigt. UI-Strings wurden schon früher ohne Produkteinführungen ausgeliefert. Die defensivste Lesart des Leaks lautet: Google hat ein Videoprodukt namens Omni in einem späten Staging-Stadium auf Gemini, und das wahrscheinlichste Fenster für eine Einführung sind die nächsten zwei Wochen.

Was das für WaveSpeedAI-Nutzer bedeuten würde

Veo 3.1 ist bereits auf WaveSpeedAI verfügbar, und wir erwarten, jedes neue Gemini-Videomodell kurz nach der öffentlichen Veröffentlichung zur Plattform hinzuzufügen – gleicher einziger API-Schlüssel, gleiches OpenAI-kompatibles LLM-Endpunktmuster, gleiches sekundenbasiertes Preismodell.

Wenn Omni Veo 3.1 ersetzt oder ergänzt, können Sie es gegen den Rest des Video-Gen-Lineups, das wir bereits hosten, im A/B-Test vergleichen:

Wenn Google Omni bei I/O veröffentlicht, können Sie es in den Tagen nach der Einführung unter derselben API vergleichen.

Häufig gestellte Fragen

Was ist Googles „Omni”-Videomodell?

Basierend auf einem UI-String, der in Geminis Videoerstellungs-Tab entdeckt wurde, scheint Omni ein neues Google-Videoerstellungsmodell oder eine Produktmarke zu sein, die den aktuellen, von Veo 3.1 betriebenen Gemini-Videofluss ersetzt oder ergänzt. Nichts Offizielles wurde angekündigt.

Wird Omni Veo 3.1 ersetzen?

Unklar. Drei plausible Interpretationen: (1) Omni ist ein neuer öffentlicher Name für denselben Veo-gestützten Pfad; (2) Omni ist ein neues, Gemini-trainiertes Videomodell neben Veo; (3) Omni ist ein vereinheitlichtes Gemini-Omni-Modell, das Bild und Video in einem System verarbeitet. Nur Google kann bestätigen, welches zutrifft.

Wann wird Google Omni enthüllen?

Das wahrscheinlichste Fenster ist Google I/O 2026 am 19.–20. Mai, wo Google bestätigt hat, dass Gemini- und KI-Updates auf der Agenda stehen.

Wird Omni Seedance 2.0 übertreffen?

ByteDance Seedance 2.0 führt derzeit die meisten öffentlichen Video-Gen-Benchmarks an. Ob Omni es überspringen kann, hängt vollständig davon ab, was tatsächlich darunter steckt – was bislang nicht bekannt ist.

Wird Omni auf WaveSpeedAI verfügbar sein?

Wenn Google Omni öffentlich veröffentlicht, wird es kurz danach zum WaveSpeedAI-Modellkatalog hinzugefügt, neben den bestehenden Veo 3.1-, Seedance 2.0-, Wan 2.7-, Kling V3.0- und Sora 2-Videomodellen.

Bleiben Sie dran

Zwei Wochen bis I/O. Wir werden diesen Beitrag aktualisieren, sobald Google etwas bestätigt; in der Zwischenzeit sind das bestehende Veo 3.1 und der Rest des Video-Gen-Lineups live auf WaveSpeedAI unter einer API verfügbar.

Quelle: TestingCatalog (Web-Beitrag, Threads).