← Блог

Демо Gemini Omni утекли в сеть — вот что на самом деле умеет новая видеомодель Google

Спустя восемь дней после первой утечки строк интерфейса появились первые образцы видео Gemini Omni. Сильная сторона — редактирование через чат, по чистому качеству уступает Seedance 2.0, при этом каждый клип сжигает ~43% дневного лимита AI Pro. Честный разбор за неделю до I/O 2026.

8 min read

Когда мы писали об утечке Omni 3 мая, вся история умещалась в одну строку пользовательского интерфейса. Восемь дней спустя картина значительно прояснилась. В мобильном приложении Gemini появились реальные образцы видео, сгенерированных моделью, утёк внутренний идентификатор модели (bard_eac_video_generation_omni), и в открытый доступ поступило достаточно практических впечатлений, чтобы сделать первые выводы.

Если кратко: Omni реальна, это почти наверняка новая модель, а не переименование Veo 3.1, и по параметрам, которые важны для разработчиков AI-видеопродуктов — качество изображения, редактирование, стоимость — её сильные и слабые стороны существенно отличаются от лидеров рейтинга. За семь дней до Google I/O 2026 (19–20 мая) вот что известно на данный момент.

Что появилось на этой неделе

11 мая 2026 года TestingCatalog и пользователь X @Thomas16937378 извлекли свежие образцы из потока генерации видео в мобильном приложении Gemini. Текст карточки модели сменился с заглушки («Powered by Omni») на полное описание продукта:

Create with Gemini Omni: meet our new video model. Remix your videos, edit directly in chat, try a template, and more.

Вместе с ним появились три конкретные детали:

  • Внутренний идентификатор модели: bard_eac_video_generation_omni. «Bard EAC» — внутреннее пространство имён приложения Gemini для экспериментальных функций; суффикс _omni подтверждает, что это отдельная модель, а не вариант Veo.
  • Ограничение в 10 секунд для сгенерированных клипов на текущем уровне предварительного просмотра. Veo 3.1 ограничена 8 секундами нативно и 16 секундами с расширением; Omni пока находится между ними без видимой возможности расширения.
  • Новая вкладка лимитов использования в настройках Gemini, указывающая на выпуск с кредитным учётом, а не с помесячной квотой подписки — соответствует тому, как Google выпускала более дорогостоящие агентские функции (Deep Research, Notebook Plus).

Это существенное повышение качества доказательств. Утечка от 3 мая представляла собой только текст интерфейса. Теперь это текст интерфейса + работающая конечная точка + наблюдаемые результаты + биллинговая поверхность.

Два образца видео, которые люди увидели

Оба образца получены из приложения Gemini, оба от пользователей с доступом AI Pro, которые смогли обратиться к модели до предполагаемого отката. Стоит описать их подробно, поскольку они показывают, к какой линейке моделей принадлежит Omni.

Образец 1 — «Профессор пишет математическое доказательство тригонометрических тождеств на традиционной доске.» Рецензенты отметили «исключительно хорошую» передачу текста — меловые уравнения были разборчивы и выглядели математически правдоподобно, в отличие от набора символов, который выдавали более ранние видеомодели. Движения рук и рук выглядели естественно. В обзоре chromeunboxed всё же отмечались «очевидные признаки ИИ в конечном результате» без конкретики — вероятно, какое-то сочетание неестественных микросаккад, артефактов сетки рук и слегка смещающейся геометрии мела.

Образец 2 — «Двое мужчин едят спагетти в дорогом ресторане». Описан как «довольно реалистичный». Тест с накручиванием пасты в течение года служит неформальным ориентиром, поскольку он нагружает всё, что идёт не так в видео в латентном пространстве: контакт приборов с едой, движение, похожее на жидкость, и постоянную идентичность лица при окклюзии. Omni справилась достаточно хорошо, чтобы это было отмечено, но снова с оговоркой, что планка «приемлемого» в этом году повысилась — Seedance 2.0 и Wan 2.7 оба стабильно её преодолевают.

Два образца — это не тест. Но два образца в двух разных режимах сложности (текст в кадре и физика контакта), оба с рецензентами, отметившими сильные, но не безупречные результаты, достаточны, чтобы поместить Omni в тот же уровень, что и Veo 3.1 — не выше по сырой точности, и явно ниже Seedance 2.0.

Где Omni действительно лидирует: редактирование через чат

Интересный результат недельного практического обзора состоит в том, что выдающаяся возможность Omni — не качество генерации. Это редактирование. В частности:

  • Удаление водяных знаков из входных клипов посредством инструкций на естественном языке в чате
  • Замена объектов в сцене («замени красную машину синей»)
  • Переписывание сцен через диалог — опишите, что должно измениться, модель возвращает отредактированную версию, и так по кругу

Это существенно иная область, чем та, которую сейчас открывают Seedance 2.0 Video-Edit или Wan 2.7 Edit. Эти модели отлично справляются с редактированием по инструкциям в стиле команд («удали наушники», «смени пальто женщины на красное»), но не поддерживают многоходовой диалог по редактированию для одного исходного клипа. Ближайший аналог сегодня — поток редактирования на естественном языке в Kling Omni Video O1, о котором мы писали подробно при его выпуске.

Если Omni действительно выйдет как видеоредактор с приоритетом чата — а не просто ещё одна конечная точка для генерации видео из текста — это и будет историей о её уникальном ценностном предложении. У Google есть стек LLM для нативной поддержки многоходовой коррекции так, как большинство поставщиков чистых видеомоделей не могут.

История стоимости

Самая показательная точка данных: один тестировщик сообщил, что два видеозапроса израсходовали 86% его дневной квоты AI Pro. Это примерно 43% дня Pro на клип — профиль стоимости, соответствующий фронтирным видеомоделям, а не генерации изображений уровня Flash.

Несколько выводов:

  1. Предварительная модель, работающая в приложении Gemini, почти наверняка относится к уровню Pro/полный, а не Flash. TestingCatalog предполагает, что вариант Flash появится одновременно, но увиденные образцы не из него.
  2. Расход кредитов на клип при такой ставке соответствует чему-то вроде $0,30–$0,50 за 10-секундный клип в розничном эквиваленте, что конкурентоспособно с Veo 3.1 ($0,50/с по ценам предварительного просмотра), но дороже Seedance 2.0 Fast.
  3. Google почти наверняка представит явные уровни использования на анонсе I/O — новая вкладка лимитов использования говорит об этом. Ожидайте уровень по цене Flash для обычных пользователей и уровень с оплатой по мере использования в AI Studio для разработчиков.

Что, по нашему мнению, Omni на самом деле собой представляет

Три недели назад существовало три правдоподобных прочтения: ребрендинг Veo, отдельная видеомодель Gemini или полная омни-модальная модель. Доказательства от 11 мая сужают этот круг:

  • Отдельный идентификатор модели (суффикс _omni, а не _veo) исключает прямой ребрендинг Veo. Google обычно не переименовывает существующие конечные точки модели во время предварительных выпусков.
  • Позиционирование продукта с приоритетом редактирования — «remix, edit directly in chat» — это не язык, который Google использовала для Veo, которая всегда подавалась как генерация видео из текста + расширение. Это больше похоже на отдельную модель с другой целью обучения.
  • Нет свидетельств вывода изображений ни в одном из утечённых образцов. Если бы это была объединённая омни-модальная модель, которую предполагает название, можно было бы ожидать появления генерации изображений с той же конечной точки. Пока что каждая утечка касается только видео.

Наиболее вероятная интерпретация на данный момент: Omni — это новая видеомодель, обученная Gemini, существующая рядом с Veo, а не заменяющая её, с позиционированием продукта с приоритетом редактирования. Nano Banana показывает, что Google готова разделять бренды в рамках одной модальности (генерация текста в изображение работает под именами Nano Banana и Gemini 3 Flash Image). Сосуществование Omni и Veo повторяет эту схему.

Полностью объединённая омни-модальная мечта, которую предполагает название, вероятно, остаётся делом будущего поколения. То, что выйдет на следующей неделе — если выйдет — это конкурентоспособный видеоредактор с нативно встроенной LLM-поверхностью чата Google.

Что это меняет для оценки

Если вы разрабатываете что-либо, связанное с AI-видео, в следующие две недели изменятся три вещи:

  1. Добавьте тест редактирования в свой набор оценок. Большинство тестов видеомоделей охватывают только генерацию видео из текста. Если предложение Omni — редактирование через чат, ваше сравнение не может ограничиваться точностью генерации — вам нужна серия запросов «отредактируй этот клип», проверяющих многоходовую согласованность, сохранение идентичности объектов при редактировании и следование инструкциям на втором и третьем ходах.
  2. Рассматривайте треугольник Seedance 2.0 / Wan 2.7 / Omni как рабочий набор. Sora 2 и Veo 3.1 теперь лучше всего понимать как ориентиры предыдущего поколения по сравнению с этим треугольником. Каждый из трёх имеет отличительную силу: Seedance лидирует по точности, Wan лидирует по мультимодальным эталонным входным данным, Omni (предположительно) лидирует по редактированию через чат.
  3. Закладывайте бюджет на ценообразование уровня Pro. Данные о 43% дневной квоты — самый громкий сигнал недели. Если ваш рабочий процесс предполагает массовую генерацию клипов, выпуск уровня Flash будет важнее уровня Pro. Следите конкретно за этим анонсом.

Предстоящая неделя

Google I/O открывается 19 мая 2026 года. Слот вторничного основного доклада — это место, где традиционно появляются анонсы Gemini и DeepMind. Такая контролируемая, такая полная предзапусковая утечка — текст карточки модели, образцы видео, биллинговая поверхность — всё за одну неделю — соответствует запуску, который уже прошёл внутреннюю проверку и ждёт своей даты в календаре.

Четыре вещи, на которые стоит обратить внимание в этот день:

  1. Будет ли уровень Flash, и сколько он будет стоить?
  2. Реально ли предложение редактирования, или это был шум от одного образца? Конкретно: покажет ли Google многоходовое редактирование вживую на сцене?
  3. Каков путь к API? AI Studio? Vertex? Оба?
  4. Синхронизация аудио: ни один из утечённых образцов не затрагивает вопрос о том, генерирует ли Omni синхронизированное аудио так же, как Veo 3.1. Если нет — это существенный пробел.

Попробуйте текущие альтернативы на WaveSpeedAI

Пока Omni не вышла, остальные видеогенераторы 2026 года доступны на WaveSpeedAI через единый API:

  • Seedance 2.0 — текущий SOTA по сырой точности, с вариантами Fast для низкой задержки
  • Wan 2.7 — богатая эталонными данными видеомодель Alibaba
  • Kling V3.0 Pro — высококачественный вариант от Kuaishou
  • Kling Omni Video O1 Edit — редактирование видео на естественном языке, ближайший текущий аналог того, чем позиционируется Omni
  • Sora 2 — предложение OpenAI
  • Veo 3.1 — текущая видеомодель Google

Когда Gemini Omni выйдет публично, ожидайте сравнения под тем же API в течение нескольких дней.

Поделиться