Close Menu
    Telegram
    SEO HARDCORE
    • Разборы патентов
      • Патенты Google
      • Патенты Яндекс
    • Скоро
      SEO инструменты
    • Скоро
      SEO аналитика
    SEO HARDCORE
    Разборы патентов • Патенты Google

    Как Google использует данные о поведении зрителей для определения ключевых моментов и ранжирования видео

    SEGMENTATION OF A VIDEO BASED ON USER ENGAGEMENT IN RESPECTIVE SEGMENTS OF THE VIDEO (Сегментация видео на основе вовлеченности пользователей в соответствующие сегменты видео)
    • US20160381419A1
    • Google LLC
    • 2016-12-29
    • 2013-08-26
    2013 EEAT и качество Мультимедиа Патенты Google Поведенческие сигналы

    Google анализирует агрегированные данные о взаимодействии пользователей с видео (перемотки, паузы, комментарии, повторные просмотры). На основе этих данных система вычисляет оценки вовлеченности для каждого сегмента. Это позволяет автоматически определять самые интересные моменты, которые затем используются для генерации тамбнейлов, создания превью (трейлеров), выделения ключевых моментов (Key Moments) и влияния на ранжирование видеоконтента.

    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх

    Описание

    Какую задачу решает

    Патент решает проблему автоматического определения наиболее интересных и релевантных частей видеоконтента в масштабах веба. Традиционные методы автоматического анализа (например, распознавание объектов или движения) не способны понять, как аудитория интерпретирует контент и какие моменты вызывают наибольший интерес. Изобретение предлагает метод оценки ценности контента на уровне сегментов, используя агрегированные поведенческие сигналы зрителей.

    Что запатентовано

    Запатентована система и метод сегментации видео на основе уровня вовлеченности пользователей (User Engagement). Система собирает данные о действиях множества пользователей во время просмотра (перемотка, паузы, комментарии и т.д.) и рассчитывает User Engagement Scores (Оценки вовлеченности) для каждого небольшого фрагмента видео. На основе этих оценок система идентифицирует и кластеризует части видео с высоким и низким уровнем интереса.

    Как это работает

    Система функционирует в несколько этапов:

    • Сбор данных: Агрегируются User Engagement Signals от множества пользователей во время просмотра видео.
    • Взвешивание: Различным действиям присваиваются веса (Weights). Например, повторный просмотр или добавление в закладки получают положительный вес, а пропуск сегмента (Seek Forward) — отрицательный.
    • Расчет оценок: Для каждого короткого сегмента видео вычисляется User Engagement Score на основе суммы взвешенных действий.
    • Кластеризация и Сегментация: Смежные сегменты с похожими оценками объединяются в кластеры, что позволяет разделить видео на логические блоки (например, скучное вступление, ключевой момент 1).
    • Применение: Сегменты с высокими оценками используются для генерации тамбнейлов, создания автоматических трейлеров (сводок), рекомендаций конкретных фрагментов и могут влиять на ранжирование видео в поиске.

    Актуальность для SEO

    Высокая. Анализ вовлеченности и удержания аудитории является критически важным для платформ типа YouTube и для ранжирования видео в Google Search. Описанные механизмы лежат в основе таких функций, как автоматический выбор тамбнейлов, предпросмотр видео при наведении и автоматическая генерация глав или «Ключевых моментов» (Key Moments).

    Важность для SEO

    Патент имеет критическое значение для Video SEO (VSEO). Он раскрывает конкретный механизм, с помощью которого Google количественно оценивает качество и интересность видео на основе поведения зрителей. Это напрямую влияет на то, как видео будет представлено в поиске (выбор тамбнейла, выделение Key Moments), как оно будет рекомендовано и как оно будет ранжироваться. Оптимизация контента для максимизации положительных User Engagement Scores становится центральной задачей VSEO.

    Детальный разбор

    Термины и определения

    User Engagement Signals (Сигналы вовлеченности пользователя)
    Данные, указывающие на интерес или его отсутствие к определенной части видео. Включают действия в интерфейсе плеера, обратную связь и потенциально сенсорные данные.
    User Engagement Score (Оценка вовлеченности пользователя)
    Числовая метрика, рассчитанная для сегмента видео на основе агрегированных и взвешенных User Engagement Signals. Отражает средний уровень интереса аудитории.
    Segment (Сегмент)
    Часть видео. Для первичного анализа видео делится на короткие сегменты (например, 1-5 секунд или покадрово).
    Occurrence Information (Информация о вхождениях/частоте)
    Данные о том, сколько раз определенный тип действия (Engagement Action) произошел в связи с определенным сегментом видео у множества пользователей.
    Weights (Веса)
    Числовые коэффициенты, присваиваемые различным типам сигналов для отражения степени положительной или отрицательной вовлеченности.
    Clusters (Кластеры)
    Группы смежных коротких сегментов, имеющих схожие (similar) User Engagement Scores. Представляют собой более крупные логические блоки видео.
    Mean User Engagement Score (Средняя оценка вовлеченности)
    Усредненное значение User Engagement Score для кластера сегментов.
    Overall User Engagement Score (Общая оценка вовлеченности)
    Агрегированная метрика для всего видео, которая может влиять на ранжирование.

    Ключевые утверждения (Анализ Claims)

    Анализируемый документ US20160381419A1 является публикацией заявки. Claims сфокусированы на использовании оценок вовлеченности для рекомендаций и сегментации.

    Claim 1 (Независимый пункт): Описывает базовый метод.

    1. Получение Occurrence Information: данных о частоте различных типов действий пользователей (engagement actions), совершенных через UI плеера, для каждого сегмента видео.
    2. Определение User Engagement Scores для каждого сегмента на основе этой информации.
    3. Рекомендация пользователю группы видеосегментов, основываясь на сравнении их оценок вовлеченности с оценками других групп сегментов (т.е. рекомендация наиболее интересных частей).

    Claim 2 (Зависимый от 1): Детализирует процесс сегментации на основе пиков интереса.

    1. Идентификация подмножества сегментов с относительно большим интересом.
    2. Разделение (сегментация) видео на N групп (N>=2) на основе того, где расположены эти высоко вовлеченные сегменты.

    Claim 3 (Зависимый от 2): Описывает создание нового видео (трейлера/сводки) путем извлечения и объединения идентифицированного подмножества высоко вовлеченных сегментов.

    Claim 4 (Зависимый от 2): Описывает генерацию тамбнейлов (thumbnails) для видео на основе изображений, взятых из высоко вовлеченных сегментов.

    Claim 5 (Зависимый от 1): Детализирует альтернативный процесс сегментации на основе кластеров.

    1. Идентификация кластеров смежных сегментов, имеющих схожие (defined similarity) User Engagement Scores.
    2. Разделение видео на N групп на основе этих кластеров.

    Где и как применяется

    Изобретение затрагивает несколько этапов обработки данных и представления результатов, преимущественно связанных с видеоконтентом.

    CRAWLING & Data Acquisition – Сбор данных
    Система собирает логи взаимодействия пользователей с видеоплеером (User Engagement Signals).

    INDEXING – Индексирование и извлечение признаков
    Основной этап работы алгоритма. Система обрабатывает собранные логи взаимодействия. В офлайн или пакетном режиме рассчитываются User Engagement Scores для каждого сегмента, выполняется кластеризация и эти данные сохраняются как признаки (features) или аннотации к видео.

    RANKING – Ранжирование
    Рассчитанные оценки используются как сигналы качества. В описании патента указано, что количество высоко вовлеченных сегментов и степень вовлеченности могут влиять на то, как видео ранжируется в результатах поиска. Может рассчитываться Overall User Engagement Score для всего видео.

    METASEARCH / RERANKING – Метапоиск, Смешивание и Переранжирование
    На этих этапах результаты анализа напрямую влияют на представление контента (SERP Features) и рекомендации:

    • Выбор тамбнейлов: Система выбирает кадры из сегментов с наивысшими User Engagement Scores.
    • Генерация Key Moments/Chapters: Система использует кластеры или пики вовлеченности для автоматического разделения видео на главы.
    • Генерация превью/трейлеров: Создание автоматических сводок из лучших моментов.
    • Рекомендации: Система рекомендует просмотр конкретных высоко вовлеченных сегментов или видео с высоким общим уровнем вовлеченности.

    Входные данные:

    • Видеоконтент, разделенный на мелкие сегменты.
    • Агрегированные логи действий пользователей (Occurrence Information).
    • Весовые коэффициенты (Weights) для различных типов действий.

    Выходные данные:

    • User Engagement Scores для каждого сегмента.
    • Идентифицированные кластеры и их средние оценки (Mean User Engagement Scores).
    • Выбранные кадры для тамбнейлов или сгенерированные трейлеры.

    На что влияет

    • Типы контента: Исключительно видеоконтент на платформах, позволяющих сбор детальных поведенческих данных (например, YouTube).
    • Форматы контента: Особенно сильно влияет на длинные видео (лонгриды), позволяя выделить наиболее ценные фрагменты из общего потока, но применимо и к коротким форматам для оценки общего качества и выбора лучшего тамбнейла.

    Когда применяется

    • Условия применения: Алгоритм требует наличия достаточного объема данных о взаимодействии от множества пользователей (plurality of users) для статистически значимого анализа. Не применяется к новым видео с малым количеством просмотров.
    • Частота применения: Расчет оценок и сегментация происходят периодически в офлайн-режиме по мере накопления новых данных о просмотрах. Применение результатов (ранжирование, выбор тамбнейла) происходит в реальном времени при запросе пользователя.

    Пошаговый алгоритм

    Этап 1: Сбор данных и подготовка

    1. Первичная сегментация: Видео делится на множество коротких последовательных сегментов (например, по 1-5 секунд или покадрово).
    2. Сбор сигналов: Собираются User Engagement Signals от пользователей, фиксируя тип действия и соответствующий сегмент.
    3. Назначение весов: Каждому типу сигнала присваивается предопределенный вес (например, Комментарий = +2, Пропуск вперед = -1).

    Этап 2: Расчет оценок вовлеченности

    1. Агрегация действий: Для каждого сегмента подсчитывается Occurrence Information (количество вхождений каждого типа действия).
    2. Расчет User Engagement Score: Вычисляется оценка для каждого сегмента путем суммирования произведений (Вес действия * Количество вхождений).

    Этап 3: Анализ и Финальная Сегментация

    1. Идентификация пиков (Вариант А): Определяются сегменты с наивысшими оценками («горячие точки»). Видео сегментируется на основе расположения этих пиков.
    2. Кластеризация (Вариант Б): Группируются смежные сегменты с похожими оценками в кластеры. Определяются границы, где оценки значительно меняются. Видео сегментируется по границам кластеров.
    3. Расчет средних оценок: Для каждого кластера вычисляется Mean User Engagement Score.

    Этап 4: Применение

    1. Генерация тамбнейлов и трейлеров: Используются сегменты/кластеры с наивысшими оценками.
    2. Рекомендации: Рекомендуются конкретные сегменты с высоким интересом.
    3. Ранжирование: Общая вовлеченность (Overall User Engagement Score) используется как сигнал ранжирования.

    Какие данные и как использует

    Данные на входе

    Система использует исключительно поведенческие факторы, агрегированные от множества пользователей.

    • Поведенческие факторы (User Engagement Signals): Патент детально описывает широкий спектр собираемых сигналов:
      • Управление воспроизведением: Stop, Pause, Resume.
      • Навигация по видео: Seek Forward (пропуск вперед), Seek Backward (переход назад), Fast Forward (ускоренная перемотка вперед), Rewind (перемотка назад), Re-watching (повторный просмотр сегмента).
      • Обратная связь и Социальные действия: Comment (комментирование), Bookmark (добавление в закладки), Tagging (лайки/дизлайки), Sharing (поделиться ссылкой на момент).
      • Управление звуком: Увеличение/уменьшение громкости, Mute.
      • Интерфейсные данные: Видимость плеера на экране (свернут, перекрыт другим окном).
      • Сенсорные и контекстные данные (опционально):
        • Gaze detection (Определение направления взгляда).
        • Анализ звуков пользователя через микрофон (смех, крик, речь).
        • Движение пользователя (подошел ближе, ушел из комнаты).
        • Движение устройства (ориентация смартфона, остановка при ходьбе).
    • Пользовательские факторы: Демография, интересы, социальные круги. Используются для расчета оценок вовлеченности для специфических групп пользователей.

    Какие метрики используются и как они считаются

    • Weights (Веса действий): Предопределенные коэффициенты. Пример из патента: Seek Forward (-1), Seek Backward (+1), Fast Forward (-0.5), Rewind (+0.5), Bookmark (+2), Comment (+2), Stop/Pause (-2), Resume (+2).
    • User Engagement Score: Рассчитывается для каждого короткого сегмента. Формула: Сумма (Вес действия * Количество вхождений этого действия в сегменте).
    • Mean User Engagement Score: Среднее значение User Engagement Score для кластера.
    • Overall User Engagement Score (Общая оценка вовлеченности): Упоминается возможность расчета общей метрики для всего видео на основе анализа сегментов (например, как сумма оценок или процент вовлекающего контента), которая может влиять на ранжирование.
    • Пороговые значения (Thresholds): Используются для идентификации сегментов с «относительно высокими» оценками и для определения схожести (similarity) при кластеризации.

    Выводы

    1. Поведение внутри видео — ключевой сигнал качества: Google детально анализирует, как именно пользователи смотрят видео. Агрегированные действия в плеере (перемотки, повторы, пропуски) являются прямыми сигналами для оценки качества и интересности контента на гранулярном уровне (секунды/кадры).
    2. Автоматическое структурирование (Key Moments): Система использует поведенческие данные для автоматического разделения видео на логические части и определения ключевых моментов. Это позволяет Google понять структуру видео без анализа самого видеоряда или таймкодов автора.
    3. Вовлеченность определяет видимость и CTR: Сегменты с высокой вовлеченностью напрямую используются для формирования представления видео в поиске и рекомендациях. Они становятся основой для тамбнейлов и автоматических превью (трейлеров).
    4. Взвешивание сигналов: Не все действия одинаково важны. Патент четко указывает на использование весов (Weights) для дифференциации позитивного и негативного взаимодействия (например, комментарий ценится высоко, а пропуск — негативно).
    5. Персонализация вовлеченности: Система может рассчитывать User Engagement Scores для разных демографических групп, что означает, что «интересные моменты» и тамбнейлы могут отличаться для разных пользователей.
    6. Вовлеченность как сигнал ранжирования: Патент подтверждает, что метрики вовлеченности могут использоваться для влияния на ранжирование видео в результатах поиска.

    Практика

    Best practices (это мы делаем)

    • Оптимизация удержания аудитории (Audience Retention): Создавайте контент, который минимизирует негативные сигналы (пропуски сегментов, остановка просмотра) и максимизирует позитивные (повторные просмотры ключевых моментов). Анализируйте отчеты об удержании (например, в YouTube Analytics), чтобы выявлять спады интереса и улучшать эти сегменты.
    • Создание четких «пиков интереса»: Структурируйте видео так, чтобы ключевая информация была подана максимально вовлекающе. Моменты, которые пользователи часто пересматривают (Rewind, Re-watch), получают высокий User Engagement Score, повышая вероятность их использования в Key Moments и тамбнейлах.
    • Визуальное качество ключевых моментов: Убедитесь, что моменты с высокой вовлеченностью содержат визуально привлекательные и информативные кадры, так как система может автоматически выбрать их для тамбнейла.
    • Стимулирование позитивных взаимодействий: Побуждайте зрителей к действиям с высоким положительным весом (комментарии, добавление в закладки, шеры), особенно в ключевые моменты контента.
    • Качественное начало видео: Обеспечьте высокую вовлеченность с первых секунд, чтобы избежать немедленных пропусков (Seek Forward) или остановок (Stop), которые генерируют сильные негативные сигналы.

    Worst practices (это делать не надо)

    • Кликбейт и несоответствие ожиданиям: Если контент не соответствует заголовку или тамбнейлу, пользователи будут активно искать обещанное (Seek Forward) или уходить (Stop). Это приведет к низким User Engagement Scores и пессимизации видео.
    • Затянутые вступления и филлерный контент («вода»): Добавление длинных сегментов, которые пользователи склонны пропускать. Это формирует кластеры с низким User Engagement Score, ухудшая общую оценку видео.
    • Игнорирование данных об удержании: Создание контента без анализа реакции аудитории. Если определенные сегменты систематически приводят к потере интереса, их использование неэффективно и вредно для SEO.
    • Искусственная накрутка просмотров: Просмотры без реального взаимодействия не помогут улучшить User Engagement Scores. Система анализирует качество взаимодействия, а не только факт просмотра.

    Стратегическое значение

    Патент подтверждает стратегический фокус Google на поведенческих факторах и качестве пользовательского опыта в видеоконтенте. Для успеха в VSEO необходимо глубоко понимать, как аудитория потребляет контент внутри видео. Алгоритмы, основанные на этом патенте, позволяют Google автоматически масштабировать оценку качества видео, определять его структуру и делать поисковую выдачу более привлекательной за счет выделения наиболее интересных моментов. Долгосрочная стратегия должна быть направлена на оптимизацию контента для максимизации удержания и вовлеченности.

    Практические примеры

    Сценарий: Оптимизация видеообзора гаджета для улучшения тамбнейла и Key Moments

    1. Анализ данных (YouTube Analytics): SEO-специалист видит провал удержания во время долгого перечисления спецификаций на 2:00 и пик интереса (много повторных просмотров) на 5:00 (тест камеры) и 8:00 (выводы и сравнение).
    2. Интерпретация по патенту: Сегмент на 2:00 получает низкий User Engagement Score из-за пропусков (Seek Forward). Сегменты на 5:00 и 8:00 получают высокие оценки из-за повторных просмотров (Rewind).
    3. Действия по оптимизации:
      • Сократить или визуализировать перечисление спецификаций на 2:00, чтобы уменьшить количество пропусков.
      • Убедиться, что на 5:00 и 8:00 присутствуют четкие, привлекательные кадры (для тамбнейлов).
    4. Ожидаемый результат: Система идентифицирует 5:00 и 8:00 как высоко вовлеченные кластеры. Google с большей вероятностью выберет кадр из этих сегментов в качестве тамбнейла и выделит эти моменты как Key Moments в поиске, что увеличит CTR и трафик на видео.

    Вопросы и ответы

    Как система определяет вес для разных действий пользователя (например, перемотка vs. комментарий)?

    Патент приводит конкретные примеры весов: Bookmark (+2), Comment (+2), Seek Backward (+1), Rewind (+0.5), Fast Forward (-0.5), Seek Forward (-1), Stop/Pause (-2). Эти веса используются для количественной оценки степени положительного или отрицательного интереса. Итоговая оценка сегмента рассчитывается как сумма взвешенных событий.

    Влияет ли этот патент на ранжирование видео в поиске Google или YouTube?

    Да. Хотя основные Claims фокусируются на рекомендациях и сегментации, в описании патента прямо указано, что уровень вовлеченности и количество высоко оцененных сегментов могут влиять на то, как видео ранжируется в результатах поиска. Высокий общий User Engagement Score является сильным сигналом качества для алгоритмов ранжирования.

    Как этот патент связан с функцией «Key Moments» (Ключевые моменты) в поиске Google?

    Описанный механизм является технологической основой для автоматической генерации Key Moments. Система анализирует User Engagement Scores, находит пики вовлеченности (моменты, которые пользователи чаще всего пересматривают или к которым переходят) или границы кластеров с разным уровнем интереса, и использует эти данные для выделения ключевых моментов в SERP.

    Как Google использует эту информацию для выбора тамбнейлов (значков видео)?

    Патент описывает генерацию тамбнейлов на основе изображений из сегментов с наивысшими User Engagement Scores. Это означает, что система старается автоматически выбрать в качестве обложки самый интересный момент видео, основываясь на реакции аудитории, что напрямую влияет на CTR видео.

    Учитывает ли система только действия в плеере (паузы, перемотки)?

    Нет, патент описывает гораздо более широкий спектр сигналов. Помимо стандартных элементов управления плеером и социальных действий (комментарии, шеры), упоминаются интерфейсные данные (видимость плеера на экране) и даже сенсорные данные: определение направления взгляда (gaze detection), анализ звуков пользователя (смех, речь) через микрофон и данные с датчиков движения.

    Что важнее для SEO в контексте этого патента: общее время просмотра или наличие пиков вовлеченности?

    Оба фактора важны, но этот патент фокусируется на анализе *качества* времени просмотра. Видео с высоким удержанием и несколькими явными пиками интереса (высокие User Engagement Scores в нескольких кластерах) будет считаться более качественным и получит преимущества в представлении (тамбнейлы, Key Moments) по сравнению с видео с равномерной вовлеченностью.

    Могут ли «интересные моменты» быть разными для разных пользователей?

    Да. Патент предусматривает возможность расчета User Engagement Scores отдельно для разных групп пользователей (например, по демографии или интересам). Это позволяет системе адаптировать рекомендации, тамбнейлы и сегментацию под конкретную аудиторию, делая контент более персонализированным.

    Как SEO-специалисту использовать эти знания при создании видео?

    Необходимо фокусироваться на качестве контента для максимизации удержания и стимулирования положительных сигналов. Следует анализировать отчеты об удержании аудитории, убирать моменты, вызывающие пропуски (отрицательные сигналы), и усиливать моменты, вызывающие повторные просмотры (положительные сигналы).

    Работает ли эта система для новых видео с малым количеством просмотров?

    Для работы системы необходим статистически значимый объем данных от множества пользователей. Для новых видео система, скорее всего, не сможет надежно рассчитать User Engagement Scores и определить ключевые моменты, так как данных о поведении аудитории еще недостаточно.

    Что такое кластеризация сегментов и зачем она нужна?

    Кластеризация — это объединение соседних коротких сегментов (например, по 1 секунде), имеющих схожие оценки вовлеченности. Это позволяет перейти от анализа отдельных кадров к анализу логических блоков видео. Например, система может выделить целый раздел инструкции длительностью 2 минуты как кластер с высоким средним интересом.

    Навигация
    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх
    Telegram
    © 2025 SEO HARDCORE

    Type above and press Enter to search. Press Esc to cancel.