
Google использует машинное обучение для анализа транскрипции видео и прогнозирования, какие сущности (термины, концепции, объекты) зрители, скорее всего, захотят поискать. Система автоматически генерирует информационные «Карточки сущностей», используя контент из внешних веб-источников, и синхронно показывает их в интерфейсе плеера в момент упоминания сущности в видео.
Патент решает проблему понимания сложного или нового контента при просмотре видео. Когда пользователи сталкиваются с незнакомыми терминами или концепциями (сущностями), им приходится прерывать просмотр и вручную искать информацию. Это ухудшает пользовательский опыт, может приводить к ошибкам при вводе запроса и потенциально уводит пользователя с платформы. Изобретение направлено на улучшение понимания контента и удержание аудитории путем проактивного предоставления контекстной информации.
Запатентована система для автоматической идентификации и контекстного объяснения ключевых сущностей в видео. Система анализирует транскрипцию видео и использует Machine Learning Resource (Ресурс машинного обучения) для прогнозирования того, какие сущности пользователь с наибольшей вероятностью захочет изучить подробнее. Для этих сущностей генерируются Entity Cards (Карточки сущностей), которые синхронно отображаются в интерфейсе в момент упоминания сущности в видео.
Ключевой механизм включает несколько этапов:
transcription), например, с помощью ASR.Knowledge Graph для идентификации кандидатов-сущностей.observational data), ранжирует сущности по вероятности того, что они вызовут интерес.Entity Cards, содержащие описание и/или изображение, полученное из внешних источников (External Content).Крайне высокая. Патент подан в конце 2022 года и опубликован в 2024. Он отражает современные тенденции в области глубокого понимания видеоконтента, интеграции с Knowledge Graph и использования предиктивного ML для улучшения пользовательского опыта на видеоплатформах (например, YouTube).
Влияние на SEO высокое (85/100). Патент критически важен для Video SEO и Entity-Based SEO. Во-первых, он детально раскрывает, как Google идентифицирует и ранжирует наиболее важные сущности внутри видео (факторы салиентности). Во-вторых, он открывает новый канал видимости: возможность для веб-сайтов стать источником контента (External Content) для Entity Cards внутри видеоинтерфейса, что подчеркивает важность создания авторитетных определений сущностей.
Knowledge Graph.descriptive content) о конкретной сущности (текстовое резюме, изображение, атрибуция источника).Entity Cards.most likely to be searched for).broadness) сущности в контексте корпуса видео.Claim 1 (Независимый пункт): Описывает основной метод работы серверной системы.
Machine Learning Resource для идентификации сущностей, которые пользователь с наибольшей вероятностью будет искать, основываясь на транскрипции.Entity Cards для этих сущностей.Entity Card на второй части экрана.Claim 2 (Зависимый от 1): Детализирует обучение модели ML.
Обучение Machine Learning Resource происходит на основе observational data о пользователях, выполняющих поиск в ответ на просмотр видео. Система учится на реальном поведении пользователей.
Claim 3 (Зависимый от 2): Детализирует процесс идентификации и ранжирования сущностей.
Knowledge Graph.Claim 4 (Зависимый от 3): Описывает механизм обратной связи для ML.
Процесс включает оценку взаимодействий пользователя с UI (например, клики на карточки) и определение корректировок для Machine Learning Resource на основе этой оценки. Система самосовершенствуется.
Claim 5 (Зависимый от 1): Уточняет синхронизацию.
Сущность упоминается в момент времени (timepoint), и Entity Card отображается именно в этот момент времени.
Claim 10 (Независимый пункт): Описывает альтернативный метод, выполняемый на пользовательском устройстве (Client-side).
Устройство получает видео и реализует Machine Learning Resource (локально или через API) для идентификации сущностей и генерации Entity Card, а затем отображает их синхронно. Это указывает на возможность как серверной, так и клиентской реализации.
Изобретение затрагивает этапы индексирования контента и генерации пользовательского интерфейса на видеоплатформе.
INDEXING – Индексирование и извлечение признаков
Основная работа по анализу контента происходит на этом этапе (офлайн):
Knowledge Graph.Machine Learning Resource (предварительно обученный на observational data) определяет наиболее значимые сущности.External Content для формирования Entity Cards.QUNDERSTANDING – Понимание Запросов (Косвенно)
Система анализирует прошлые запросы пользователей (observational data), связанные с просмотром видео, для обучения ML-модели. Это процесс понимания того, как видеоконтент порождает информационные потребности.
METASEARCH / RERANKING (Генерация UI)
На этапе предоставления контента пользователю система генерирует финальный интерфейс, объединяя видеопоток и динамически отображаемые Entity Cards. Происходит синхронизация показа карточек с таймкодами.
Входные данные:
Knowledge Graph.observational data).External Content (источники для описаний сущностей).Выходные данные:
Entity Cards с описательным контентом.Entity Cards.Entity Cards. Авторитетные сайты получают новый канал видимости.Entity Card происходит в реальном времени, синхронно с моментом упоминания сущности в видео (timepoint).Процесс А: Обработка видео и генерация Entity Cards (Офлайн/Индексация)
Knowledge Graph для получения коллекции сущностей-кандидатов.observational data (реальные поисковые запросы пользователей при просмотре видео) для обучения Machine Learning Resource.External Content и формируются Entity Cards.Процесс Б: Отображение Entity Cards (Реальное время)
Entity Card во второй части интерфейса, продолжая воспроизведение видео.Entity Cards для последующей корректировки Machine Learning Resource (Claim 4).Патент фокусируется на использовании следующих типов данных:
External Content) для наполнения карточек.Observational data — логи реальных поисковых запросов, связанных с просмотром видео. Используются для обучения ML-модели.Entity Cards (клики, игнорирование). Используются для корректировки ML-модели.Система использует Machine Learning Resource для ранжирования сущностей. Ключевые сигналы, используемые для ранжирования (Claim 3):
query-based salient term signal).tf-idf. Более уникальные сущности могут получить больший вес.External Content) для отображения в Entity Cards. Это создает новую возможность для SEO по оптимизации контента для появления в этих карточках (аналог Featured Snippets для видео).Knowledge Graph является центральным элементом для понимания видеоконтента через его транскрипцию.Entity Cards как сигнал для постоянного улучшения и корректировки модели прогнозирования (Claim 4).Entity Cards, повышая видимость вашего ресурса. Используйте структурированное изложение и микроразметку.Knowledge Graph.Relevance to topic), раскрывайте их взаимосвязи с другими сущностями (Relevance to other entities) и упоминайте их достаточно часто (Number of mentions).Knowledge Graph. Это увеличивает вероятность их корректной идентификации в видеоконтенте.Broadness) с помощью tf-idf, поэтому проработка уникальных аспектов темы более выгодна.Entity Cards.Knowledge Graph, она не сможет его обработать в рамках данного механизма.Патент подтверждает стратегический курс Google на семантический анализ любого типа контента и переход к проактивному предоставлению информации. Для SEO это означает, что оптимизация видео должна строиться на сущностях и их связях, а не только на метаданных. Долгосрочная стратегия должна включать синергию между видеопродакшеном и веб-контентом, направленную на то, чтобы стать авторитетным источником знаний (и, следовательно, источником для Entity Cards) по ключевым сущностям в нише.
Сценарий 1: Оптимизация веб-страницы для появления в Entity Card
Entity Card.Сценарий 2: Оптимизация образовательного видео
Как система определяет, какие сущности являются наиболее важными в видео?
Ключевой механизм — это модель машинного обучения (Machine Learning Resource), обученная на реальных данных о том, что пользователи ищут во время или после просмотра видео (observational data). Дополнительно модель учитывает факторы из Claim 3: релевантность теме видео, связь с другими сущностями, количество упоминаний и уникальность термина (tf-idf).
Откуда берется контент для Entity Cards?
Контент извлекается из External Content — внешних веб-сайтов или сервисов, предоставляющих сводки по темам. Это аналогично формированию Featured Snippets. Для SEO это создает возможность стать источником для этих карточек, предоставляя четкие и авторитетные определения на своем сайте.
Какую роль играет Knowledge Graph в этом процессе?
Knowledge Graph играет центральную роль на этапе идентификации (Claim 3). Система анализирует транскрипцию видео и должна связать текстовые упоминания с конкретными узлами в Графе Знаний. Если сущности нет в KG, она не может быть обработана этой системой.
Насколько важна точность автоматической транскрипции (ASR)?
Точность транскрипции критически важна, так как весь процесс анализа основан на тексте (Claim 1). Ошибки в ASR из-за плохого качества звука или нечеткой речи приведут к невозможности корректной идентификации сущностей. Поэтому качество аудио и четкость дикции являются важными факторами оптимизации видео.
Что означает сигнал "широты" (Broadness) сущности и как используется tf-idf?
Этот сигнал помогает отличить общие термины от специфичных. tf-idf используется для оценки уникальности сущности для данного видео по сравнению со всем корпусом видео. Если термин встречается очень часто во многих видео (например, "технология"), он считается "широким" и может получить меньший вес при финальном ранжировании.
Может ли этот механизм помочь моему сайту получить больше трафика?
Влияние двоякое. Это может снизить трафик по простым информационным запросам, так как ответ дается прямо в видео (аналог Zero-Click). Однако, если ваш сайт используется как источник для Entity Card (с атрибуцией), это повышает узнаваемость бренда, экспертность и может привести к более квалифицированному трафику.
Может ли система ошибаться в выборе сущностей и как она исправляется?
Да, но патент предусматривает механизм обратной связи (Claim 4). Система отслеживает взаимодействие пользователей с Entity Cards (клики или игнорирование). Эти данные используются для корректировки Machine Learning Resource и улучшения точности выбора сущностей в будущем.
Карточки показываются автоматически или пользователь должен их активировать?
Патент описывает оба варианта. Карточки могут отображаться автоматически и синхронно (Claim 1, 5). Также они могут отображаться в сжатом виде заранее (Claim 6). Альтернативно, система может показать только уведомление (notification user interface element), и карточка откроется только по клику пользователя (Claim 8).
Происходит ли анализ видео в реальном времени, когда пользователь его смотрит?
В основном сценарии (Claim 1, серверная реализация) анализ и генерация карточек происходят заранее (офлайн), на этапе индексирования. Во время просмотра происходит только синхронизация. Однако патент также описывает альтернативный вариант (Claim 10), где анализ может выполняться непосредственно на устройстве пользователя.
Влияет ли этот патент на ранжирование видео в поиске Google или YouTube?
Напрямую патент описывает функцию интерфейса плеера. Однако он раскрывает, как Google анализирует и понимает содержание видео на уровне сущностей и их значимости. Такое глубокое понимание контента, несомненно, используется и в алгоритмах ранжирования. Кроме того, улучшение поведенческих факторов за счет этой функции может косвенно улучшить ранжирование.

Семантика и интент
Мультимедиа
Персонализация

Мультимедиа
Семантика и интент

Мультимедиа
Семантика и интент
SERP

Мультимедиа
Семантика и интент
Персонализация

Семантика и интент
Мультимедиа
Индексация

Семантика и интент
Индексация
Структура сайта

Техническое SEO
Ссылки

Семантика и интент
Поведенческие сигналы
Персонализация

SERP
Поведенческие сигналы
Семантика и интент

Семантика и интент
EEAT и качество
Индексация

Поведенческие сигналы
Ссылки
SERP

Персонализация
Поведенческие сигналы
SERP

Антиспам
Ссылки
Техническое SEO

Ссылки
Структура сайта
Семантика и интент

Персонализация
Семантика и интент
Поведенческие сигналы
