Google разработал систему для улучшения навигации по VOD-контенту (Video-on-Demand). Вместо просмотра видео с начала, пользователи могут искать конкретные типы сцен («хуки»). Система идентифицирует эти моменты, используя анализ видео (Video Image Recognition) и внешние сигналы (например, популярность клипов в соцсетях), и позволяет переключаться между разными видео, начиная просмотр сразу с этих ключевых сцен (time-shifting).
Описание
Какую задачу решает
Патент решает проблему неэффективности поиска и выбора контента на платформах видео по запросу (VOD). Традиционные методы навигации, основанные на статических метаданных (обложки, описания, рейтинги), часто приводят к «парадоксу выбора» (paradox of choice), когда пользователи тратят много времени на поиск. Изобретение улучшает обнаружение контента, позволяя пользователям быстро оценить самые захватывающие или релевантные моменты (hooks) в различных видео.
Что запатентовано
Запатентована система «серфинга по видео по запросу» (On-demand video surfing). Она позволяет пользователю искать контент по типу содержащихся в нем сцен или событий (например, «автомобильные погони» или «голы»). Система идентифицирует видео с такими сценами (hooks) и применяет механизм сдвига времени (time-shifting). При навигации между результатами воспроизведение автоматически начинается с найденного момента, а не с начала видео.
Как это работает
Механизм работает следующим образом:
- Анализ контента: VOD-контент предварительно анализируется для идентификации и разметки hooks. Это делается с помощью Video Image Recognition и анализа внешних поведенческих сигналов.
- Запрос пользователя: Пользователь вводит запрос, указывая тип интересующей его сцены.
- Поиск и Time-Shifting: Система находит видео с соответствующими сценами и подготавливает их к воспроизведению с момента начала hook.
- Серфинг: Пользователь может быстро переключаться между результатами. При выборе нового видео оно автоматически начинается с релевантного hook.
- Продолжение просмотра: После завершения hook воспроизведение автоматически продолжается до конца видео, либо пользователь может перезапустить видео с начала.
Актуальность для SEO
Высокая. Технологии, лежащие в основе патента, — глубокий анализ видеоконтента и идентификация ключевых моментов — крайне актуальны. Они напрямую соотносятся с функциями, которые Google активно развивает, такими как «Ключевые моменты» (Key Moments) в Google Search и YouTube. Понимание структуры видео на уровне сцен и использование поведенческих сигналов для оценки их важности является стратегическим направлением.
Важность для SEO
Влияние на традиционное веб-SEO минимальное, так как патент описывает навигацию внутри VOD-платформ. Однако для Video SEO (VSEO) значение патента существенно (7/10). Он демонстрирует, что Google обладает технологиями (Video Image Recognition) для глубокого понимания содержания видео на уровне отдельных сцен и активно использует внешние поведенческие сигналы для определения ценности этих сцен. Это подчеркивает важность оптимизации видео на уровне ключевых сегментов (hooks).
Детальный разбор
Термины и определения
- Hook (Хук, Ключевой момент)
- Сцена в видео, предназначенная для привлечения внимания пользователя (например, экшн-сцена, гол). Hook может быть определен автоматически на основе анализа контента или внешних сигналов.
- On-demand video surfing (Серфинг по видео по запросу)
- Процесс быстрого сканирования различного VOD-контента путем навигации непосредственно к интересующим моментам (hooks) в каждом видео.
- Time-shift (Временной сдвиг)
- Механизм инициации воспроизведения видео в момент времени, отличный от нуля (не с начала). Реализуется путем начала стриминга с нужного момента или отправки временной метки (mark) клиентскому устройству.
- Video Image Recognition (Распознавание видеоизображений)
- Технологии (компьютерное зрение), используемые для анализа, идентификации и разметки различных частей видео как содержащих определенный тип hook (определение действий, событий, объектов).
- Extracted Clips (Извлеченные клипы)
- Фрагменты видео, загруженные пользователями на платформы обмена контентом. Используются как внешний сигнал для идентификации hooks.
- Spikes on Social Media (Всплески в социальных сетях)
- Повышенная активность в социальных сетях, связанная с конкретным моментом в видео. Используется как внешний сигнал для идентификации hooks.
- VOD (Video-on-Demand)
- Видео по запросу. Контент, доступный для просмотра по выбору пользователя.
Ключевые утверждения (Анализ Claims)
Claim 1 (Независимый пункт): Описывает метод, реализуемый поставщиком услуг (Service Provider) для обеспечения серфинга по VOD.
- Поиск VOD-контента на основе критериев запроса для идентификации видео, содержащих соответствующую сцену (hook).
- Предоставление доступа к полным версиям (full versions) идентифицированных видео.
- В ответ на выбор пользователем первого видео: инициировать воспроизведение полной версии через первый поток контента (first content stream), начиная со сцены, соответствующей критериям.
- В ответ на выбор пользователем второго видео: инициировать воспроизведение полной версии через второй поток контента (second content stream), начиная с соответствующей сцены во втором видео.
Ядро изобретения — это возможность искать по типу сцены и переключаться между разными видеопотоками (полных версий), при этом воспроизведение в каждом потоке начинается не с начала, а с найденной сцены (hook).
Claim 7 (Зависимый от 1): Детализирует поведение системы после завершения сцены.
- Предоставление первого видео в виде потокового контента.
- Если воспроизведение сцены (hook) завершилось до того, как пользователь переключился на другое видео, система автоматически продолжает потоковую передачу оставшейся части первого видео.
Это гарантирует бесшовный переход от предпросмотра (hook) к полному просмотру видео, если пользователь заинтересовался.
Claim 14 (Независимый пункт): Описывает метод с точки зрения клиентского устройства (Video-rendering device).
- Получение поискового запроса с критериями.
- Отправка запроса на сервер для поиска VOD-контента.
- Получение доступа к полным версиям найденных видео.
- В ответ на выбор первого/второго видео, воспроизведение его полной версии через соответствующий поток, начиная с идентифицированной сцены.
Где и как применяется
Патент затрагивает этапы индексирования контента и финального представления результатов пользователю на VOD-платформах.
INDEXING – Индексирование и извлечение признаков (Анализ Видео)
Это ключевой этап. VOD-контент должен быть проанализирован офлайн для идентификации и разметки сцен (hooks). Патент подробно описывает этот процесс:
- Анализ контента: Использование video image recognition techniques для анализа, идентификации и тегирования различных частей видео на предмет наличия определенных событий, действий или объектов.
- Анализ внешних сигналов: Определение hooks на основе поведенческих данных. Упоминаются spikes on social media (всплески в соцсетях), extracted clips uploaded (загруженные пользователями клипы) и crowd volume (громкость толпы в спорте).
На этом этапе создаются временные метки (marks) для hooks.
QUNDERSTANDING – Понимание Запросов
Система должна интерпретировать запросы, направленные на поиск типов сцен (например, «покажи мне взрывы», «голы в футболе вчера вечером»), и сопоставлять их с тегами, сгенерированными на этапе индексирования.
RANKING – Ранжирование (Отбор VOD-контента)
Система отбирает видео из библиотеки VOD, которые содержат hooks, соответствующие запросу пользователя. (Алгоритмы ранжирования в патенте не детализируются).
METASEARCH / RERANKING (Доставка Контента и UI)
Это этап основного применения патента, отвечающий за пользовательский опыт. Система предоставляет интерфейс для «серфинга». Видео представлены как потоки (content streams), смещенные по времени (time-shifted) к началу релевантного hook. Система управляет переключением между этими потоками.
Входные данные:
- Библиотека VOD-контента.
- Предварительно рассчитанные данные о hooks (тип, временные метки, внешние сигналы популярности).
- Пользовательский запрос, определяющий тип сцены.
Выходные данные:
- Набор идентифицированных видео.
- Интерфейс для навигации, где каждое видео представлено потоком, начинающимся с релевантного hook (или полные версии с метками marks).
На что влияет
- Конкретные типы контента и ниши: Наибольшее влияние на контент с ярко выраженными моментами: спорт (голы, моменты игры), фильмы (экшн-сцены), пользовательский контент (например, на YouTube).
- Специфические запросы: Влияет на запросы, ориентированные на события, действия или объекты внутри видео, а не только на общую тематику или название.
- Платформы: Применяется на платформах VOD (YouTube, Google TV) и влияет на отображение видео в Google Search (Key Moments).
Когда применяется
- Условия работы: Алгоритм применяется, когда пользователь инициирует поиск, направленный на определенный тип сцены, или активирует специальный режим навигации («серфинг») на VOD-платформе.
- Триггеры: Получение запроса, специфицирующего критерии поиска для hook (search criteria).
- Необходимое условие: Наличие в базе проиндексированного контента с размеченными hooks.
Пошаговый алгоритм
Процесс А: Предварительная обработка (Офлайн / Индексирование)
- Сбор данных: Получение доступа к библиотеке VOD-контента.
- Идентификация и Тегирование Hooks: Анализ видео для определения ключевых моментов. Этот шаг включает:
- Применение Video Image Recognition techniques для обнаружения событий, действий, объектов.
- Анализ аудио (например, определение crowd volume).
- Анализ внешних данных: мониторинг spikes on social media и анализ extracted clips, загруженных пользователями.
- Создание меток и Индексация: Для каждого идентифицированного hook сохраняется тип сцены и временная метка (mark) начала и окончания.
Процесс Б: Обработка запроса (Онлайн / Серфинг)
- Получение запроса: Система получает запрос от пользователя, определяющий тип сцены.
- Поиск контента: Система ищет в индексе видео, содержащие hooks, соответствующие критериям запроса.
- Подготовка к воспроизведению (Time-shifting): Для найденных видео система определяет точки начала воспроизведения (alignment points). Это может быть подготовка потока или генерация метки (mark) для клиента.
- Инициация воспроизведения: В ответ на выбор пользователем первого видео, воспроизведение начинается с идентифицированного hook.
- Навигация (Серфинг): При получении команды навигации система прекращает текущее воспроизведение и инициирует воспроизведение следующего видео (переключение потока), также начиная с его hook.
- Продолжение просмотра: Если hook завершился, а пользователь не выполнил навигацию, система автоматически продолжает воспроизведение видео до конца.
Какие данные и как использует
Данные на входе
Патент подразумевает использование следующих данных для идентификации hooks и управления навигацией:
- Мультимедиа факторы (Ключевые): Видео- и аудиоданные. Система анализирует визуальный ряд (Video Image Recognition) для идентификации сцен, действий, событий, объектов. Также анализируется аудиодорожка (например, crowd volume — громкость толпы на спортивных мероприятиях).
- Поведенческие и Внешние факторы (Критические): Патент явно упоминает использование внешних сигналов для определения hooks на основе взаимодействия аудитории:
- Всплески активности в социальных сетях (spikes on social media) во время трансляции видео.
- Извлеченные клипы, загруженные на сайты обмена контентом (extracted clips uploaded to a content sharing website, например, YouTube).
- Пользовательские факторы: Поисковый запрос пользователя (упоминается голосовой ввод), определяющий тип сцены.
- Контентные/Структурные факторы (Метаданные): Метаданные видео, если они содержат информацию, идентифицирующую сцены (например, разметка, предоставленная студией или создателем контента, или сгенерированные временные метки mark).
Какие метрики используются и как они считаются
Патент не описывает конкретные метрики ранжирования или формулы, но опирается на следующие методы идентификации:
- Классификация сцен: Использование Video Image Recognition techniques для классификации сегментов видео по типам (Scene Type) и определения соответствия запросу пользователя.
- Идентификация Hooks: Процесс определения наиболее привлекательных моментов. Методы включают автоматический анализ контента и анализ внешних сигналов вовлеченности (популярности сегментов).
- Временные метки (Marks): Точное определение времени начала и окончания hook. Эти метки используются для реализации time-shifting.
Выводы
- Глубокое понимание видеоконтента: Патент подтверждает, что Google использует передовые технологии (Video Image Recognition) для понимания содержания видео на гранулярном уровне (сцены, события, объекты), выходя за рамки общих метаданных.
- Ключевые моменты (Hooks) как основа навигации: Система полагается на способность идентифицировать hooks в видео. Эти моменты становятся основными точками входа для пользователей (time-shifting).
- Использование внешних сигналов для определения ценности момента: Критически важный инсайт: для определения того, что является hook, система учитывает внешние данные — реакцию в социальных сетях (spikes on social media) и популярность отдельных клипов (extracted clips). Это связывает вовлеченность аудитории с навигацией по контенту.
- Приоритет вовлечения над последовательным просмотром: Весь механизм направлен на немедленное вовлечение пользователя путем показа наиболее интересного контента (hook) в первую очередь, минуя вступления.
- Значение для Video SEO: Для VSEO это означает стратегическую важность сегментации контента и оптимизации ключевых моментов (включая генерацию внешних сигналов вокруг них), а не только видео целиком.
Практика
Best practices (это мы делаем)
Рекомендации применимы к Video SEO (VSEO) и оптимизации контента на платформах, использующих подобные технологии (например, YouTube и функция Key Moments).
- Стимулирование распространения клипов (Signal Generation): Активно создавайте и распространяйте короткие клипы (Shorts, Reels) ключевых моментов ваших видео в социальных сетях. Поскольку патент учитывает extracted clips и spikes on social media для идентификации hooks, высокая внешняя активность вокруг сегмента сигнализирует о его важности.
- Создание четких и идентифицируемых «Hooks»: Структурируйте видео так, чтобы оно содержало яркие ключевые моменты. Эти моменты должны быть визуально и аудиально различимы, чтобы автоматизированные системы (Video Image Recognition) могли их классифицировать.
- Структурирование видео (Key Moments): Активно используйте инструменты структурирования контента, такие как временные метки (timestamps) и главы (Chapters) на YouTube. Это помогает системам Google лучше понять структуру видео и выделить hooks.
- Оптимизация под распознавание сцен: Используйте четкое изображение, хороший звук, а также текстовые элементы на экране (если применимо), которые могут помочь системе понять контекст сцены.
- Оптимизация метаданных сегментов: Названия глав и текст вокруг временных меток должны точно описывать содержание сегмента, увеличивая вероятность выбора этого сегмента как точки входа.
Worst practices (это делать не надо)
- Создание монотонного контента: Видео без явных ключевых моментов или четкой структуры будут плохо работать в системах обнаружения контента, так как алгоритмам будет сложно идентифицировать релевантный hook.
- Игнорирование качества продакшена: Низкое качество видео и звука затрудняет работу систем распознавания изображений и аудио, что снижает вероятность корректной идентификации сцен.
- Ориентация только на метаданные: Полагаться исключительно на заголовки и описания. Системы все чаще анализируют само содержание видеоряда и поведенческие сигналы для его рекомендации и сегментации.
- Запрет на создание клипов и распространение: Ограничение возможности пользователей делиться контентом или создавать клипы (например, в YouTube) снижает количество внешних поведенческих сигналов, используемых для идентификации hooks.
Стратегическое значение
Патент подчеркивает стратегический переход в Video SEO от оптимизации видео как единого целого к оптимизации его отдельных сегментов. Видимость видео все больше зависит от того, как машинные алгоритмы воспринимают визуальное и аудио содержание посекундно, и как аудитория реагирует на конкретные моменты. Долгосрочная стратегия должна включать адаптацию продакшена контента под возможности автоматического распознавания и генерацию внешних сигналов.
Практические примеры
Сценарий: Оптимизация видеорецепта для VSEO с учетом внешних сигналов
- Идентификация Hooks: В 10-минутном видео о приготовлении пасты карбонара определяются ключевые hooks: (A) Смешивание соуса, (B) Финальная сервировка.
- Оптимизация на платформе: В YouTube видео разбивается на главы с четкими названиями (например, «03:15 Секрет идеального соуса Карбонара»).
- Генерация внешних сигналов (согласно патенту): Создается короткий 30-секундный клип момента смешивания соуса (Hook A) и активно продвигается в TikTok и Instagram Reels, стимулируя обсуждения.
- Ожидаемый результат:
- Системы Google, использующие Video Image Recognition, идентифицируют эти сцены.
- Внешняя активность в соцсетях (spikes on social media и популярность extracted clip) подтверждает важность Hook A.
- Видео получает больше шансов быть показанным (начиная с Hook A через time-shifting) в ответ на запросы типа «как смешать соус карбонара» в поиске или в системах типа On-demand video surfing.
Вопросы и ответы
Как именно система определяет, что является «Hook» (ключевым моментом) в видео?
Патент описывает несколько методов. Во-первых, используются технологии распознавания видеоизображений (Video Image Recognition) для идентификации сцен с определенными действиями или событиями. Во-вторых, критически важны внешние поведенческие сигналы: всплески активности в социальных сетях (spikes on social media), анализ загруженных пользователями клипов (extracted clips) и даже анализ аудио (например, crowd volume на спортивных мероприятиях).
Применяется ли этот патент к YouTube?
Да, патент подан Google и описывает технологию для VOD-контента. Функциональность YouTube, такая как «Ключевые моменты» (Key Moments) и автоматическое определение глав, основана на технологиях, описанных в этом патенте (идентификация сцен и time-shifting). Понимание этих механизмов критично для YouTube SEO.
Влияет ли этот механизм на ранжирование видео в поиске?
Патент не описывает алгоритмы ранжирования, а фокусируется на навигации. Однако, если видео содержит четко идентифицируемые hooks, оно может получить больше видимости в интерфейсах обнаружения контента. Успешное вовлечение пользователя через hook может привести к более длительному просмотру, что является позитивным поведенческим сигналом для алгоритмов ранжирования.
Стоит ли мне создавать короткие клипы из моих длинных видео на основе этого патента?
Да, это настоятельно рекомендуется. В патенте прямо указано, что extracted clips uploaded to a content sharing website используются как сигнал для идентификации важных моментов (hooks). Активное распространение клипов и генерация обсуждений в соцсетях помогают алгоритмам понять, какие части вашего видео наиболее интересны аудитории.
Нужно ли мне вручную размечать «Hooks» в моих видео?
Патент предполагает автоматическую идентификацию (с помощью Video Image Recognition и внешних сигналов). Однако использование доступных инструментов, таких как временные метки (timestamps) и главы (Chapters) на YouTube, помогает системам Google точнее понять структуру вашего видео и выделить ключевые моменты. Это лучшая практика для VSEO.
Что такое «Time-shift» в контексте этого патента?
Time-shift означает, что когда пользователь выбирает видео в режиме «серфинга», воспроизведение начинается не с 0:00, а со времени начала релевантной сцены (hook). Это позволяет пользователю сразу увидеть интересующий его контент, минуя вступление.
Означает ли этот патент, что Google анализирует содержание каждого кадра моих видео?
Да, патент прямо указывает на использование Video Image Recognition для анализа, идентификации и разметки различных частей видео. Это подтверждает, что Google обладает техническими возможностями для глубокого анализа видеоряда с целью понимания того, что именно происходит на экране, включая действия, события и присутствующие объекты.
Если в моем видео несколько ключевых моментов, как система их покажет?
Патент предусматривает такую ситуацию. Система может сгенерировать несколько записей (потоков) для одного и того же видео в списке результатов, каждая из которых будет смещена по времени к своему hook. Это позволяет пользователю просматривать разные ключевые моменты одного видео последовательно.
Что происходит после того, как «Hook» заканчивается?
Согласно патенту (Claim 7), если пользователь не переключился на следующее видео, воспроизведение автоматически продолжается до конца видео. Это обеспечивает бесшовный переход от предпросмотра ключевого момента к полному потреблению контента.
Влияет ли этот патент на ранжирование моего сайта в Google Поиске?
Нет, напрямую не влияет. Патент описывает интерфейс для VOD-платформ. Однако технологии анализа видео, описанные в нем (идентификация hooks), используются в Google Поиске для отображения функции Key Moments для видео, размещенных на сайтах, что может повысить CTR из поиска.