
Google анализирует всплески поисковых запросов в реальном времени и сопоставляет их с транслируемым медиаконтентом (например, телешоу или спортивными событиями). Сопоставляя термины запроса с метаданными (субтитрами) или анализируя аудио-отпечатки с устройств пользователей, Google определяет точный «момент», вызвавший интерес, и упаковывает его в автоматический «Гид по моментам».
Патент решает проблему переизбытка медиаконтента и сложности ручного поиска конкретных популярных, обсуждаемых или вирусных моментов (Moments) внутри транслируемых программ (например, ТВ-шоу, прямые эфиры, спорт). Система призвана автоматизировать обнаружение фрагментов контента, которые вызвали значительный общественный интерес в реальном времени.
Запатентована система для автоматической идентификации и курирования значимых моментов в транслируемых медиапрограммах. Суть изобретения заключается в корреляции поведения пользователей в поиске — обнаружении Search Events (аномальных всплесков объема связанных запросов) — с временной шкалой и содержанием медиапрограмм, транслируемых одновременно с этими всплесками. Результатом является генерация структурированного гида (Moments Guide).
Система функционирует путем анализа данных поиска в реальном времени:
Search Event — резкий рост объема поиска (spike in search volume) выше заданного порога.Moment в программе, вызвавший интерес. Это достигается двумя способами: (1) Сопоставлением ключевых слов из запросов с метаданными программы (субтитры, EPG); или (2) Анализом аудио-отпечатков (Content Fingerprints), захваченных устройствами пользователей, которые отправляли эти запросы.Moments Guide, который может быть отсортирован по популярности и персонализирован.Высокая. Обнаружение трендов в реальном времени и интеграция медиа-хайлайтов (особенно спортивных событий, новостей и популярных шоу) являются ключевыми элементами функциональности современных поисковых систем, Google Discover и Google Assistant. Механизмы, описанные в патенте, напрямую связаны с тем, как Google выявляет и представляет актуальный видеоконтент и реагирует на возникающие информационные потребности.
Патент имеет значительное влияние (7/10), особенно для Video SEO, издателей медиаконтента и специалистов, занимающихся Real-Time SEO. Он не описывает ранжирование веб-страниц, но раскрывает механизм, с помощью которого Google определяет популярность контента в реальном времени и автоматически генерирует специализированные форматы выдачи. Это критически важно для оптимизации видео, использования трендов (trendjacking) и понимания важности точных метаданных (субтитров, EPG).
Subtitles data (данные субтитров) и Program guide data (данные телегида, EPG).spike in search volume) выше заданного порога для набора связанных запросов.Claim 1 (Независимый пункт): Описывает основной метод работы системы.
Search Event (всплеск объема поиска выше порога для связанных запросов).Moment в этой программе, которые ассоциированы по времени с этим поисковым событием.Presentation (Гид), включающая эту программу и момент.Claim 2 (Зависимый от 1): Детализирует первый метод идентификации момента (через метаданные).
Media Content Metadata для программ, транслируемых в период времени, близкий (proximate) ко времени поискового события.Claim 3 (Зависимый от 2): Уточняет, что метаданные включают Subtitles data и/или Program guide data (EPG).
Claim 4 (Зависимый от 1): Детализирует второй метод идентификации момента (через аудио-отпечатки с устройств пользователей).
Content Information (включая записанную аудиоинформацию) от клиентских устройств, с которых были отправлены запросы во время всплеска.Content Fingerprint, который соответствует полученной информации.Claim 11 (Зависимый от 1): Описывает ранжирование моментов.
Claim 12 (Зависимый от 11): Описывает персонализацию ранжирования.
Изобретение затрагивает несколько этапов поиска, используя данные индексирования для анализа запросов в реальном времени и генерации специальных форматов выдачи.
INDEXING – Индексирование и извлечение признаков
Система полагается на предварительно обработанные данные о медиаконтенте. Это включает индексацию Media Content Metadata (EPG, субтитры) и генерацию Content Fingerprints. Эти данные сохраняются для быстрой корреляции.
QUNDERSTANDING – Понимание Запросов (Анализ в реальном времени)
Ключевой этап. Система в реальном времени анализирует поток поисковых запросов (Search Data), кластеризует связанные запросы и обнаруживает Search Events (всплески). Это глобальный анализ пользовательского интереса.
RANKING – Ранжирование (Ранжирование Моментов)
На этом этапе происходит ранжирование идентифицированных моментов на основе величины соответствующих поисковых всплесков (search volume spikes).
METASEARCH – Метапоиск и Смешивание / RERANKING – Переранжирование
На этом этапе генерируется финальная Presentation (Moments Guide). Это специализированный блок или результат (SERP feature), который агрегирует популярные моменты и предоставляет ссылки. На этапе RERANKING может применяться персонализация на основе демографических данных (Claim 12).
Входные данные:
Search Data).Subtitles Data, EPG Data, Content Fingerprints).Content Information (аудио), получаемая с клиентских устройств во время поиска.Выходные данные:
Moments Guide – отсортированный список популярных моментов с ссылками на видеоконтент.Broadcast Media) – спортивные события, ТВ-шоу, реалити-шоу, новости, церемонии.Search Event – когда объем поиска по набору связанных запросов превышает predefined threshold (предопределенный порог).Moments Guide предоставляется, когда пользователь запрашивает информацию о медиапрограмме или отправляет релевантный поисковый запрос.Этап 1: Мониторинг и Обнаружение Событий
Search Data) и кластеризация связанных запросов.spike in search volume) для кластера запросов выше порога. Это фиксируется как Search Event с указанием времени и ключевых слов.Этап 2: Идентификация Контента и Момента
Search Event.Subtitles Data, EPG Data) для этих программ. Поиск соответствия между ключевыми словами Search Event и текстом метаданных. Успешное сопоставление определяет программу и конкретный момент.Content Information (например, записанное аудио) с устройств пользователей, участвовавших в Search Event. Сопоставление этой информации с базой данных Content Fingerprints. Успешное сопоставление определяет программу и момент, который смотрели пользователи.Этап 3: Ранжирование и Генерация Гида
Search Event (например, объем поиска).Moments Guide. Включение ссылок на просмотр момента (deeplink) и всей программы.Этап 4: Доставка
Moments Guide на устройство пользователя для отображения.Система использует комбинацию данных о поведении пользователей и данных о медиаконтенте.
Subtitles Data: Текстовые данные субтитров, критически важные для сопоставления поисковых запросов с содержанием момента.EPG Data (Program guide data): Данные телепрограммы, используемые для временной корреляции и получения информации о программе.Content Fingerprints: Предварительно рассчитанные отпечатки аудио/видео.Content Information: Аудио, записанное клиентскими устройствами во время просмотра и поиска (используется в Методе Б идентификации).Demographic Information (возраст, пол, регион, предпочтения). Используются для персонализации ранжирования моментов в гиде (Claim 12).Search Event.Search Event и временем трансляции медиапрограммы.Search Volume Spike, и опционально скорректированная с учетом демографических факторов.Search Spikes) в качестве датчика для выявления культурно значимых событий и трендов в реальном времени, коррелируя их с медиапотреблением.Subtitles Data и EPG Data. Это критически важно для обнаружения видеоконтента.Content Information), записанное его устройством в момент отправки поискового запроса (Claim 4). Это позволяет точно связать запрос с контентом, даже если пользователь смотрит его на другом экране.Moments Guide. Это автоматизирует процесс курирования трендового видеоконтента.Для Вещателей и Владельцев Видеоконтента:
Moment (Claim 2, 3). Не полагайтесь на некачественные автоматические субтитры.Program Guide Data). Включайте названия, имена участников (сущности), ключевые темы.Для SEO-специалистов и Издателей (Real-Time SEO):
Moments. Скорость реакции имеет первостепенное значение.Moments.Патент подтверждает стратегию Google по интеграции видеоконтента и анализу трендов в реальном времени. Он демонстрирует технические возможности системы по пониманию контекста событий по мере их возникновения. Для SEO-специалистов это подчеркивает необходимость развития компетенций в области Real-Time SEO и оптимизации не только видео целиком, но и его ключевых фрагментов (моментов), чтобы успешно конкурировать в быстро меняющейся поисковой выдаче.
Сценарий: Освещение крупного спортивного события
Spike in search volume по этим запросам.Moment: (А) Сопоставляя запросы с субтитрами комментатора или (Б) Анализируя аудио-отпечатки с устройств пользователей, подтверждая, что они смотрят матч.Moments Guide для матча, где момент с пенальти ранжируется высоко из-за объема поиска. Клик ведет к просмотру повтора.Как именно Google определяет, что всплеск поисковых запросов связан с конкретной телепрограммой?
Патент описывает два основных метода. Первый — временная корреляция и сопоставление метаданных: система ищет совпадения между ключевыми словами запросов и субтитрами или EPG программы, идущей в эфире в момент всплеска. Второй метод — анализ аудио-отпечатков: система может использовать аудио, захваченное устройствами пользователей, которые отправляли эти запросы, и сопоставлять его с отпечатками известных трансляций для точной идентификации.
Что такое «Moments Guide» и где он отображается?
Moments Guide — это сгенерированная системой презентация (дайджест), которая перечисляет самые популярные моменты из медиаконтента. Он может отображаться в результатах поиска при релевантном запросе (как SERP feature), в мобильном приложении-ассистенте (Google Assistant или Discover) или в интерфейсе ТВ-приставки (например, Google TV).
Насколько важна скорость публикации контента в контексте этого патента?
Скорость критически важна. Система предназначена для идентификации моментов в реальном времени на основе всплесков поисковой активности. Чтобы капитализировать этот интерес, контент (будь то новость или видеофрагмент) должен быть создан и проиндексирован максимально быстро после возникновения момента. Это подчеркивает важность стратегий Real-Time SEO.
Как этот патент влияет на оптимизацию видеоконтента (Video SEO)?
Он значительно повышает важность точных метаданных и субтитров. Поскольку система использует субтитры (Claim 3) для сопоставления запросов с контентом, наличие качественной текстовой расшифровки становится ключевым фактором для Video Discoverability. Также важно обеспечить доступность видео на платформах, куда Google может направить пользователя через deeplink.
Упоминается ли в патенте персонализация результатов?
Да, в патенте (Claim 12) явно указано, что ранжирование идентифицированных моментов может происходить с учетом демографических критериев пользователя (demographic criteria), таких как возраст, пол, регион и предпочтения. Это означает, что Moments Guide может быть персонализирован.
Означает ли Claim 4, что Google прослушивает пользователей через их устройства для идентификации контента?
Патент (Claim 4) описывает реализацию, где система получает аудиоинформацию, записанную клиентскими устройствами, с которых были отправлены запросы во время поискового всплеска. Это используется для точной идентификации того, что пользователь смотрел в момент возникновения интереса (контекст поиска). Применение этого механизма на практике зависит от настроек конфиденциальности и разрешений, предоставленных пользователем приложению (например, Google Assistant).
Применяется ли этот механизм только к телевизионному контенту?
Патент фокусируется на Broadcast Media Program, что включает традиционное телевидение, но также охватывает контент, распространяемый через Интернет (стриминг). Механизм применим к любым прямым трансляциям, вызывающим массовый интерес, включая крупные онлайн-трансляции и спортивные события.
Как ранжируются моменты в «Moments Guide»?
Основным фактором ранжирования (Claim 11) является интенсивность соответствующего Search Event. Чем больше объем поиска и чем резче всплеск (Search Volume Spike), тем выше будет ранжироваться связанный с ним момент. Дополнительно учитывается персонализация.
Как этот патент связан с функцией "Ключевые моменты" (Key Moments) на YouTube?
Концептуально они похожи — оба направлены на идентификацию важных фрагментов внутри видео. Однако данный патент фокусируется на идентификации моментов в транслируемом контенте путем анализа внешних сигналов (всплесков поисковых запросов), тогда как Key Moments на YouTube чаще используют внутренние данные платформы или анализ самого контента.
Влияет ли этот патент на ранжирование обычных веб-страниц (синих ссылок)?
Напрямую он не описывает алгоритм ранжирования L1-L3. Однако он описывает механизм обнаружения трендов, который определяет, какой контент является актуальным в данный момент. Эта информация используется системами метапоиска для формирования блоков универсальной выдачи (Top Stories, Видео, Moments Guide), что косвенно влияет на трафик и видимость веб-страниц по трендовым запросам.

Свежесть контента
Семантика и интент
Персонализация

Индексация
Мультимедиа
Семантика и интент

Персонализация
Семантика и интент
Поведенческие сигналы

Свежесть контента
Семантика и интент
Мультимедиа

Свежесть контента
Семантика и интент
Мультимедиа

Ссылки
SERP

Поведенческие сигналы
Семантика и интент
Мультимедиа

Knowledge Graph
Свежесть контента
Семантика и интент

Семантика и интент
Поведенческие сигналы
SERP

Персонализация
SERP
Семантика и интент

Семантика и интент
Поведенческие сигналы

EEAT и качество
Индексация
Семантика и интент

Ссылки
Индексация
Мультимедиа

EEAT и качество
Свежесть контента
Семантика и интент

Поведенческие сигналы
Семантика и интент
Антиспам
