Close Menu
    Telegram
    SEO HARDCORE
    • Разборы патентов
      • Патенты Google
      • Патенты Яндекс
    • Скоро
      SEO инструменты
    • Скоро
      SEO аналитика
    SEO HARDCORE
    Разборы патентов • Патенты Google

    Как Google использует пользовательские аннотации и сигналы вовлеченности для определения и ранжирования ключевых моментов в видео (Key Moments)

    ANNOTATING VIDEO INTERVALS (Аннотирование видео интервалов)
    • US9690768B2
    • Google LLC
    • 2017-06-27
    • 2008-02-19
    2008 Мультимедиа Патенты Google Поведенческие сигналы Семантика и интент

    Патент описывает, как Google анализирует пользовательские аннотации и поведение при просмотре (Traffic Traces) для выявления важных сегментов внутри видео. Система автоматически группирует схожие сигналы, определяет границы популярных сегментов (Annotated Clips) и ранжирует их по уровню вовлеченности. Этот механизм лежит в основе функций типа Key Moments, позволяя Google понимать видеоконтент на гранулярном уровне.

    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх

    Описание

    Какую задачу решает

    Патент решает проблему навигации по видеоконтенту и определения наиболее релевантных или популярных сегментов внутри него. Традиционные комментарии часто относятся ко всему видео, что затрудняет агрегацию мнений о конкретных моментах. Изобретение автоматизирует процесс выявления и выделения Annotated Clips (ключевых моментов) на основе коллективного поведения пользователей и данных о просмотре.

    Что запатентовано

    Запатентована система и метод управления и отображения аннотаций в онлайн-видео. Суть заключается в автоматическом сборе пользовательских аннотаций (привязанных ко времени или области кадра) и данных о просмотре (Traffic Traces), их интеллектуальной кластеризации в группы и последующем формировании Annotated Clips. Система также ранжирует эти клипы на основе популярности (количества аннотаций/вовлеченности).

    Как это работает

    Система работает в несколько этапов:

    • Сбор данных: Собираются пользовательские аннотации (временные и пространственные) и Traffic Traces (данные о том, какие сегменты просматриваются чаще).
    • Группировка: Grouping Module кластеризует аннотации на основе временной близости, перекрытия интервалов или автоматического определения сцен.
    • Определение клипа: Clip Generation Module определяет точные границы Annotated Clip, используя статистические методы (например, Гауссово распределение) и анализ Traffic Traces.
    • Синопсис: Может генерироваться сводная аннотация (Synoptic Annotation), обобщающая комментарии к клипу.
    • Ранжирование и отображение: Ranking Module сортирует клипы по популярности. Результаты отображаются в виде маркеров на временной шкале (Timeline) с индикаторами ранга и интерактивными миниатюрами (Annotated Thumbnails).

    Актуальность для SEO

    Высокая. Описанные механизмы напрямую соотносятся с современными функциями, такими как «Ключевые моменты» (Key Moments) в Google Search и на YouTube. Автоматическое сегментирование видео и понимание содержания конкретных интервалов на основе поведения пользователей является критически важной задачей для поисковых систем в 2025 году.

    Важность для SEO

    Патент имеет высокое значение для Video SEO (8.5/10). Он раскрывает механизмы, которые Google использует для понимания содержания видео на гранулярном уровне, используя сигналы вовлеченности (аннотации) и удержания (Traffic Traces). Это напрямую влияет на видимость видео в поиске через функции типа Key Moments и подтверждает важность структурирования видео и оптимизации удержания аудитории.

    Детальный разбор

    Термины и определения

    Annotation (Аннотация)
    Данные, дополняющие медиафайл (текст, аудио, метаданные, реклама, команды). Могут быть привязаны ко времени (Interval) и/или к пространству (Spatial Definition).
    Annotated Clip (Аннотированный клип)
    Сегмент видео, сформированный системой на основе группы схожих пользовательских сигналов. Практический эквивалент – Ключевой момент (Key Moment).
    Annotated Thumbnail (Аннотированная миниатюра)
    Миниатюра, отображаемая при взаимодействии с маркером на временной шкале, часто включающая Synoptic Annotation.
    Feature (Признак)
    Сжатое представление содержания кадров видео. Используется для автоматического определения сцен (Scene detection).
    Grouping Module (Модуль группировки)
    Компонент, отвечающий за кластеризацию аннотаций, относящихся к схожим интервалам.
    Ranking Module (Модуль ранжирования)
    Компонент, который ранжирует Annotated Clips на основе количества аннотаций. Может использоваться при ранжировании видео в поиске.
    Reputation Score (Оценка репутации)
    Метрика пользователя, используемая для взвешивания значимости его аннотаций и фильтрации спама.
    Spatial Definition (Пространственное определение)
    Область кадра видео (регион), с которой связана аннотация.
    Synoptic Annotation (Синоптическая аннотация)
    Сводная аннотация для Annotated Clip, созданная путем обобщения контента связанных аннотаций с помощью NLP.
    Traffic Traces (Трассировки трафика)
    Данные о том, какие моменты видео просматривались пользователями (данные об удержании аудитории). Используются для определения границ клипа.

    Ключевые утверждения (Анализ Claims)

    Патент US9690768B2 (продолжение более ранних заявок) фокусируется в Claims на пользовательском интерфейсе (UI) для создания пространственных аннотаций и отображении ранжированных клипов.

    Claim 1, 12, 14 (Независимые пункты): Описывают процесс взаимодействия пользователя с интерфейсом видеоплеера и функциональность системы.

    1. Отображение интерфейса видеоплеера и временной шкалы (timeline). Видео уже содержит множество аннотированных интервалов.
    2. Получение от пользователя выбора области (region) в кадре (создание пространственной аннотации).
    3. Отображение индикатора выбранной области (annotation definition image).
    4. Получение контента аннотации от пользователя и его сохранение.
    5. Ранжирование: Система ранжирует существующие аннотированные интервалы на основе количества аннотаций (number of annotations), связанных с каждым интервалом.
    6. Отображение маркеров на временной шкале.
    7. Отображение индикаторов порядка ранжирования (ranked orders) этих маркеров на временной шкале.
    8. Отображение аннотированной миниатюры (annotated thumbnail) при взаимодействии пользователя с маркером.

    Ядром изобретения в этих пунктах является комбинация UI для создания пространственно-ориентированных аннотаций и UI для отображения автоматически ранжированных по популярности интервалов (хайлайтов) непосредственно на временной шкале.

    Где и как применяется

    Изобретение затрагивает несколько этапов работы поисковой системы и видеохостинга.

    INDEXING – Индексирование и извлечение признаков

    • Обработка видео: Анализ видео для определения сцен и признаков (Features), что используется для группировки.
    • Обработка сигналов: Аннотации и Traffic Traces извлекаются, анализируются (включая NLP для текста аннотаций) и кластеризуются (Grouping Module).
    • Генерация данных: Формируются границы Annotated Clips и создаются Synoptic Annotations. Вычисляются метрики популярности и Reputation Scores. Эти данные индексируются.

    RANKING – Ранжирование

    • Ranking Module сортирует Annotated Clips по количеству аннотаций. В патенте указано, что эти ранги могут использоваться при поиске видео для ранжирования результатов.

    METASEARCH / RERANKING (Уровень Представления)

    • Annotated Clips (Ключевые моменты) могут быть представлены в результатах поиска (SERP) как способ быстрого перехода к релевантному сегменту. В интерфейсе плеера отображаются маркеры, ранги и миниатюры.

    Входные данные:

    • Видеофайлы.
    • Пользовательские аннотации (текст, временные метки, пространственные данные).
    • Traffic Traces (данные о просмотре сегментов).
    • Данные о пользователях (ID, Reputation Score).

    Выходные данные:

    • Идентифицированные Annotated Clips и их границы.
    • Synoptic Annotations (сводные метаданные).
    • Ранжированный список Annotated Clips.
    • Визуальные индикаторы для UI (маркеры, ранги).

    На что влияет

    • Типы контента: Влияет на видеоконтент, особенно длинные форматы (лекции, обзоры, трансляции), где важна навигация.
    • Специфические запросы: Улучшает ответы на информационные запросы, где ответ содержится в определенном сегменте видео.

    Когда применяется

    • Условия работы: Алгоритм применяется, когда видео набирает достаточный объем пользовательских сигналов (аннотаций или Traffic Traces) для формирования статистически значимых кластеров.
    • Частота применения: Процесс группировки и ранжирования выполняется периодически (в патенте упоминается ежечасно или ежедневно). Отображение в UI происходит при каждой загрузке видеоплеера.

    Пошаговый алгоритм

    Процесс обработки сигналов и генерации клипов (Бэкенд)

    1. Сбор и извлечение: Система собирает аннотации и Traffic Traces. Extraction Module извлекает и сортирует данные по видео и времени.
    2. Группировка (Кластеризация): Grouping Module формирует группы сигналов для схожих интервалов. Методы:
      • Временная кластеризация: Группировка по близким временным меткам (например, в пределах 5 секунд).
      • Кластеризация по перекрытию: Группировка интервалов со значительным перекрытием (например, 25%).
      • Определение сцен: Использование Scene detection algorithms для привязки сигналов к сценам.
    3. Определение связанности и взвешивание: Анализ групп для выявления связанных аннотаций. Включает:
      • Анализ контента: Использование NLP для определения тематической связи.
      • Взвешивание: Присвоение весов на основе уникальности пользователя и его Reputation Score.
    4. Генерация клипа: Clip Generation Module определяет границы клипа. Методы:
      • Статистический анализ: Подбор вероятностной модели (например, Гауссовой) к распределению аннотаций, определение центра и границ по стандартным отклонениям.
      • Анализ просмотров: Использование Traffic Traces для идентификации наиболее просматриваемых сегментов.
    5. Генерация синопсиса: Synoptic Annotation Module создает сводную аннотацию с помощью NLP.
    6. Ранжирование: Ranking Module ранжирует клипы по количеству аннотаций (популярности).
    7. Отображение (UI): Display Module использует ранжированные данные для отображения маркеров, рангов и Annotated Thumbnails на временной шкале.

    Какие данные и как использует

    Данные на входе

    • Контентные и Мультимедиа факторы: Текст аннотаций. Видео данные (анализируются для определения сцен).
    • Технические факторы: Временные метки (timestamps), продолжительность интервалов, пространственные координаты (Spatial Definition) в кадре.
    • Поведенческие факторы:
      • Действия по созданию аннотаций (сигнал популярности).
      • Traffic Traces: данные о просмотре/пересмотре сегментов (сигналы удержания).
    • Пользовательские факторы: Идентификаторы пользователей, Reputation Score.

    Какие метрики используются и как они считаются

    • Объем аннотаций: Основной фактор для ранжирования Annotated Clips (Claim 1).
    • Временная близость и Перекрытие интервалов: Метрики для кластеризации (например, пороги в 5 секунд или 25% перекрытия).
    • Схожесть контента: Метрики на основе NLP и схожести строк (например, edit distances). Используются для определения связанности и генерации синопсиса.
    • Вес аннотации: Корректирующая метрика на основе Reputation Score и уникальности пользователя.
    • Объем трафика (Watch Time): Метрика из Traffic Traces, используемая для определения границ клипов.
    • Статистические метрики: Среднее значение и стандартное отклонение при подборе вероятностной модели (Гауссовой) для определения границ клипа.

    Упомянутые алгоритмы: Алгоритмы кластеризации (k-means, k-center), алгоритмы определения сцен, методы NLP и Information Retrieval.

    Выводы

    1. Автоматизация определения Ключевых Моментов (Key Moments): Патент описывает детальный механизм автоматического определения границ популярных сегментов видео (Annotated Clips) без ручной разметки, используя агрегированные пользовательские сигналы.
    2. Вовлеченность и Удержание как сигналы ранжирования: Количество аннотаций является прямым сигналом для ранжирования клипов (Claim 1). Кроме того, в описании активно используется анализ Traffic Traces (данные об удержании аудитории) для определения важности сегментов.
    3. Гранулярное понимание контента через NLP: Система анализирует содержание аннотаций с помощью NLP для определения тематической связанности и создания сводок (Synoptic Annotation), что позволяет понять контекст сегмента.
    4. Важность структуры видео: Один из методов группировки полагается на автоматическое определение сцен (Scene detection), что подчеркивает важность создания видео с четкой структурой.
    5. Фильтрация спама и учет авторитетности (E-E-A-T): Система использует Reputation Score пользователя при взвешивании аннотаций, что является механизмом защиты от манипуляций и повышения качества данных.
    6. Пространственные аннотации: Изобретение защищает интерфейс для аннотирования конкретных областей кадра (Spatial Definition), что указывает на глубокий уровень анализа визуального контента.

    Практика

    Best practices (это мы делаем)

    • Структурирование видеоконтента: Создавайте видео с четкой структурой. Используйте визуальные и повествовательные переходы, которые помогут алгоритмам Scene detection корректно сегментировать видео. Это увеличит точность определения Annotated Clips.
    • Использование явной разметки (Chapters): Дополняйте автоматическое определение, используя ручную разметку Глав на YouTube. Это дает системе явные сигналы о структуре контента.
    • Максимизация удержания в ключевых моментах: Поскольку Traffic Traces (просмотры сегментов) критически важны, необходимо максимизировать удержание зрителей на важных частях видео. Анализируйте графики удержания аудитории и оптимизируйте сегменты с высокой вовлеченностью.
    • Оптимизация под естественный язык (NLP): Убедитесь, что аудиодорожка использует четкие, релевантные термины. Это поможет системе корректно интерпретировать контент сегмента и потенциально сопоставить его с поисковыми запросами.
    • Стимулирование вовлеченности: Поощряйте естественное взаимодействие (комментарии, в том числе с таймкодами). Высокий объем сигналов вовлеченности повышает ранг сегментов.

    Worst practices (это делать не надо)

    • Создание монотонного контента без структуры: Видео без явных переходов или пиков интереса затрудняют работу Scene detection и снижают вероятность формирования Annotated Clips.
    • Игнорирование данных об удержании: Если пользователи массово проматывают сегменты или покидают видео, это негативно сказывается на Traffic Traces и снижает ранжирование контента.
    • Попытки манипуляции аннотациями/комментариями: Искусственное завышение сигналов может быть неэффективно, так как патент предусматривает взвешивание на основе уникальности пользователя и его Reputation Score.

    Стратегическое значение

    Этот патент подтверждает стратегию Google по использованию сигналов вовлеченности и удержания для понимания и структурирования видеоконтента. Для Video SEO это означает, что оптимизация должна фокусироваться на гранулярной релевантности и качестве пользовательского опыта. Система стремится понять, что именно в видео является наиболее ценным, основываясь на поведении аудитории. Долгосрочная стратегия должна быть направлена на создание структурированного контента, максимизирующего удержание.

    Практические примеры

    Сценарий: Оптимизация видео-обзора для выделения Ключевых Моментов в Поиске

    1. Задача: Убедиться, что система корректно выделит разделы обзора (например, тест камеры, тест батареи) как Annotated Clips.
    2. Действия (Структурирование): Использовать четкие визуальные разделители и титры между разделами для помощи Scene detection. Добавить ручные Главы (Chapters).
    3. Действия (Вовлеченность и Удержание): В каждом разделе предоставить концентрированную информацию и вывод. Анализировать Traffic Traces (график удержания), чтобы убедиться, что эти разделы досматривают до конца или пересматривают.
    4. Ожидаемый результат: Система группирует пользовательские сигналы (просмотры, комментарии) вокруг этих разделов. Ranking Module определяет наиболее популярный раздел (например, тест камеры). В Google Search по запросу «тест камеры [модель]» система отображает Ключевой Момент, ведущий сразу к этому Annotated Clip.

    Вопросы и ответы

    Как этот патент связан с функцией «Ключевые моменты» (Key Moments) в Google Search и на YouTube?

    Патент напрямую описывает технологическую основу для этой функции. Annotated Clip в патенте — это и есть Ключевой момент. Он детализирует, как система автоматически определяет границы этих сегментов путем кластеризации пользовательских сигналов (аннотаций и просмотров) и как ранжирует их по популярности.

    Подтверждает ли патент, что удержание аудитории (Watch Time) является фактором ранжирования?

    Да. В патенте явно указано использование Traffic Traces (данных о том, какие моменты видео просматривались) для определения границ и важности клипов. Это подтверждает, что данные об удержании аудитории и повторных просмотрах сегментов используются для оценки качества и релевантности контента на гранулярном уровне.

    Что является основным фактором ранжирования сегментов согласно Claims?

    Согласно Claim 1, основным фактором ранжирования аннотированных интервалов является количество аннотаций (number of annotations), связанных с этим интервалом. Чем больше сигналов вовлеченности, тем выше ранг сегмента.

    Как система определяет точные границы ключевого момента, если пользователи указывают разные интервалы?

    Система использует сложные статистические методы. В патенте описано проецирование всех связанных интервалов на временную шкалу и подбор вероятностной модели (например, Гауссова распределения). Центр распределения становится центром клипа, а границы определяются на основе стандартных отклонений, часто с округлением до границ сцены.

    Учитывает ли система текст внутри аннотаций (комментариев)?

    Да. Система использует NLP и методы определения схожести строк для двух целей: определить, связаны ли аннотации тематически, и создать Synoptic Annotation (сводку клипа). Это помогает системе понять контекст и содержание сегмента.

    Может ли этот механизм защититься от спама и накруток?

    Да. В патенте упоминается механизм взвешивания аннотаций. Система учитывает уникальность пользователей и может использовать Reputation Score (оценку репутации) пользователя для снижения веса подозрительных или низкокачественных сигналов.

    Как я могу оптимизировать видео, чтобы помочь системе определить сцены?

    Система использует алгоритмы Scene detection. Чтобы помочь им, создавайте видео с четкой структурой: используйте визуальные переходы, графические элементы (титры, заставки) для разделения тем и избегайте монотонной подачи. Четкая смена планов и тем облегчает алгоритмическое сегментирование.

    Что такое пространственное аннотирование (Spatial Definition) и как оно влияет на SEO?

    Это возможность выделять конкретные объекты или области в кадре. Патент защищает интерфейс для этого. Это показывает, что система способна понимать визуальное содержание видео на объектном уровне, основываясь на взаимодействии пользователей, что важно для будущего визуального поиска.

    Влияет ли этот патент только на поиск внутри YouTube?

    Нет. Хотя он описывает интерфейс видеохостинга, в патенте также указано, что Ranking Module может использоваться при поиске видео. Это означает, что данные о популярных клипах могут влиять на ранжирование видео и отображение Ключевых моментов в общем поиске Google (Web Search и Video Search).

    Какова лучшая стратегия Video SEO с учетом этого патента?

    Лучшая стратегия — фокусироваться на создании качественного, хорошо структурированного контента, который максимизирует удержание аудитории (Traffic Traces) вокруг ключевых тем. Используйте явную разметку глав (Chapters) для усиления сигналов и стимулируйте естественную вовлеченность для повышения ранга сегментов.

    Навигация
    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх
    Telegram
    © 2025 SEO HARDCORE

    Type above and press Enter to search. Press Esc to cancel.