Google
ВидеоGoogleGemini OmniвидеомодельмультимодальностьAI

Google Gemini Omni: видеомодель, которая видит и понимает в реальном времени

Сергей Сергеев, редактор gen-hub.ru
Сергей Сергеев
Редактор gen-hub.ru
·5 мин чтения
Google Gemini Omni: видеомодель, которая видит и понимает в реальном времени

Google наконец-то показал то, о чем все шептались после GPT-4o: Gemini Omni — модель, которая работает с видео не как с набором картинок, а как с полноценным потоком. Если верить первым демонстрациям, это именно тот шаг, которого не хватало для превращения ИИ-ассистентов из умных чат-ботов в полноценных цифровых собеседников.

Я помню, как год назад все восхищались GPT-4 Vision, которая «понимала» видео. На деле она просто анализировала отдельные кадры с интервалом в секунду-две. Gemini 1.5 Pro делала то же самое, пусть и с более длинным контекстным окном. Omni, судя по всему, работает иначе — модель видит непрерывный поток и улавливает динамику происходящего, а не просто последовательность статичных сцен.

Что под капотом

Технических деталей Google традиционно не раскрывает, но можно строить предположения. Скорее всего, архитектура базируется на трансформерах с темпоральным вниманием — механизме, который позволяет модели отслеживать изменения объектов во времени. Это не просто последовательная обработка кадров, а понимание движения, траекторий, причинно-следственных связей в видеоряде.

Сравню с конкурентами: GPT-4o от OpenAI тоже заявлял о нативной мультимодальности, но на практике видеовозможности там всё ещё ограничены — модель хорошо работает с аудио и текстом в реальном времени, а вот видео обрабатывает фрагментами. Claude 3.5 Sonnet от Anthropic вообще не умеет в видео нативно — только статичные изображения. А китайский Qwen2-VL показывал неплохие результаты на бенчмарках видеопонимания, но до массового доступа ему далеко.

Где это реально полезно

Давайте без маркетинговой шелухи. Для разработчиков это открывает несколько сценариев:

Видеоаналитика в реальном времени. Системы безопасности, мониторинг производства, анализ поведения покупателей в магазинах — всё, где нужно не просто детектировать объекты, а понимать контекст происходящего. Раньше для этого собирали зоопарк из YOLO для детекции, отдельных моделей для трекинга и каких-нибудь LSTM для анализа последовательностей. Теперь можно отдать весь пайплайн одной модели.

Образовательные приложения. Представьте приложение для обучения спорту или музыке, которое смотрит на вас через камеру и даёт фидбек в реальном времени — не «твоя поза на кадре 47 неправильная», а «ты слишком рано разгибаешь локоть в движении». Это качественно другой уровень интерактивности.

Ассистенты для людей с ограниченными возможностями. Модель, которая видит мир глазами пользователя и может описывать не только «на столе лежит яблоко», но и «человек слева от тебя протягивает руку для рукопожатия» — это реальная помощь.

Бенчмарки и реальность

Google наверняка покажет впечатляющие цифры на Video-MME, PerceptionTest и других академических бенчмарках. Но я всегда смотрю на практические кейсы. Насколько быстро модель работает? Какая задержка между видеопотоком и ответом? Сколько это стоит в API?

По моим прикидкам, обработка видео в реальном времени должна жрать токены как не в себя. Если Gemini 1.5 Pro брала примерно 258 токенов на секунду видео при покадровой обработке, то Omni с её непрерывным анализом может выйти на 500-700 токенов в секунду. При текущих ценах Google ($7 за миллион входных токенов для Gemini 1.5 Pro) час видеоанализа обойдётся в $12-18. Дороговато для массовых приложений.

Доступность и ограничения

Вот тут начинается самое интересное для российской аудитории. Google API официально не работает в России с 2022 года. Нужен VPN и зарубежная карта — обычная история. Но есть нюанс: Google гораздо строже OpenAI проверяет IP-адреса и платёжные данные. Если OpenAI ещё можно обмануть виртуальными картами и качественными резидентскими прокси, то с Google это работает хуже.

Альтернативы? Можно использовать Vertex AI через GCP — там проверки чуть мягче, но нужен бизнес-аккаунт с верифицированными документами. Или ждать, пока модель появится на платформах-агрегаторах типа Poe или Hugging Face, которые работают как прослойка.

Что это значит для рынка

Google явно пытается отыграть позиции после не самого убедительного старта Gemini. Первая версия разочаровала — слишком много маркетинга, мало реальных преимуществ перед GPT-4. Gemini 1.5 Pro с огромным контекстным окном была шагом вперёд, но всё равно ощущалась как догоняющая модель.

Omni может стать настоящим дифференциатором. Если Google сделает API доступным и ценообразование адекватным, это серьёзный вызов OpenAI. Особенно учитывая, что у Google есть YouTube — крупнейшая видеоплатформа в мире. Интеграция Omni с YouTube открывает безумные возможности: автоматическая генерация глав, интерактивные подсказки, персонализированные саммари.

Технологический контекст

Мы наблюдаем переход от модальность-специфичных моделей к универсальным. Ещё два года назад в индустрии доминировал подход «одна модель — одна задача»: GPT для текста, DALL-E для картинок, Whisper для аудио. Потом начался тренд на мультимодальность, но это была скорее «склейка» разных энкодеров через общее эмбеддинг-пространство.

Теперь мы движемся к нативной мультимодальности, где модель обучается на всех модальностях одновременно с самого начала. Это фундаментально другая архитектура с качественно иными возможностями. Omni, GPT-4o, грядущий Llama 4 Omni от Meta — всё это представители нового поколения.

Мой вердикт

Gemini Omni выглядит как серьёзная заявка на лидерство в видеопонимании. Если Google не облажается с ценообразованием и доступностью API (а они умеют облажаться), это будет must-have инструмент для разработчиков, работающих с видео.

Для обычных пользователей реальная польза появится не сразу — сначала технологию обкатают на корпоративных клиентах и в собственных сервисах Google. Но через полгода-год мы увидим волну приложений, которые используют видеопонимание как базовую функцию, а не фичу премиум-тарифа.

Остаётся главный вопрос: насколько хорошо модель работает в реальных условиях, а не в отполированных демо? Google любит показывать вау-эффекты на презентациях, а потом оказывается, что в продакшене всё не так радужно. Жду независимых тестов и первых отзывов разработчиков.

Все эти инструменты — уже на Genova-ai

Картинки, видео, музыка, голос и ИИ-чат в одном месте. Без VPN и зарубежных карт.

Картинки
Видео
Музыка
Голос
ИИ-чат
Попробовать бесплатно

Похожие новости