SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google использует всплески поисковых запросов для идентификации трендовых «моментов» в ТВ-трансляциях и прямых эфирах

MEDIA PROGRAM MOMENTS GUIDE (Гид по моментам медиапрограмм)
  • US20170214954A1
  • Google LLC
  • 2016-01-25
  • 2017-07-27
  • Поведенческие сигналы
  • Мультимедиа
  • Семантика и интент
  • Свежесть контента
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google анализирует всплески поисковых запросов в реальном времени и сопоставляет их с транслируемым медиаконтентом (например, телешоу или спортивными событиями). Сопоставляя термины запроса с метаданными (субтитрами) или анализируя аудио-отпечатки с устройств пользователей, Google определяет точный «момент», вызвавший интерес, и упаковывает его в автоматический «Гид по моментам».

Описание

Какую проблему решает

Патент решает проблему переизбытка медиаконтента и сложности ручного поиска конкретных популярных, обсуждаемых или вирусных моментов (Moments) внутри транслируемых программ (например, ТВ-шоу, прямые эфиры, спорт). Система призвана автоматизировать обнаружение фрагментов контента, которые вызвали значительный общественный интерес в реальном времени.

Что запатентовано

Запатентована система для автоматической идентификации и курирования значимых моментов в транслируемых медиапрограммах. Суть изобретения заключается в корреляции поведения пользователей в поиске — обнаружении Search Events (аномальных всплесков объема связанных запросов) — с временной шкалой и содержанием медиапрограмм, транслируемых одновременно с этими всплесками. Результатом является генерация структурированного гида (Moments Guide).

Как это работает

Система функционирует путем анализа данных поиска в реальном времени:

  • Обнаружение всплеска: Идентифицируется Search Event — резкий рост объема поиска (spike in search volume) выше заданного порога.
  • Временная корреляция: Определяются медиапрограммы, транслируемые одновременно или незадолго до этого всплеска.
  • Идентификация момента: Система точно определяет конкретный Moment в программе, вызвавший интерес. Это достигается двумя способами: (1) Сопоставлением ключевых слов из запросов с метаданными программы (субтитры, EPG); или (2) Анализом аудио-отпечатков (Content Fingerprints), захваченных устройствами пользователей, которые отправляли эти запросы.
  • Генерация гида: Идентифицированные моменты компилируются в Moments Guide, который может быть отсортирован по популярности и персонализирован.

Актуальность для SEO

Высокая. Обнаружение трендов в реальном времени и интеграция медиа-хайлайтов (особенно спортивных событий, новостей и популярных шоу) являются ключевыми элементами функциональности современных поисковых систем, Google Discover и Google Assistant. Механизмы, описанные в патенте, напрямую связаны с тем, как Google выявляет и представляет актуальный видеоконтент и реагирует на возникающие информационные потребности.

Важность для SEO

Патент имеет значительное влияние (7/10), особенно для Video SEO, издателей медиаконтента и специалистов, занимающихся Real-Time SEO. Он не описывает ранжирование веб-страниц, но раскрывает механизм, с помощью которого Google определяет популярность контента в реальном времени и автоматически генерирует специализированные форматы выдачи. Это критически важно для оптимизации видео, использования трендов (trendjacking) и понимания важности точных метаданных (субтитров, EPG).

Детальный разбор

Термины и определения

Broadcast Media Program (Транслируемая медиапрограмма)
Медиаконтент, распространяемый через эфир, кабель, спутник или Интернет (ТВ-шоу, спортивные матчи, прямые эфиры).
Content Fingerprint (Контентный отпечаток)
Компактное представление или сигнатура медиаконтента (аудио, видео). Используется для точной идентификации контента (технология ACR - Automatic Content Recognition).
Content Information (Информация о контенте)
Данные, извлеченные из медиаконтента или захваченные клиентским устройством (например, аудиозапись), которые отправляются на сервер для идентификации.
Media Content Metadata (Метаданные медиаконтента)
Данные, описывающие контент. Включают Subtitles data (данные субтитров) и Program guide data (данные телегида, EPG).
Moment (Момент)
Конкретное событие, сцена или фрагмент в медиапрограмме, который вызвал значительный интерес пользователей.
Search Event (Поисковое событие)
Событие, определяемое как всплеск объема поиска (spike in search volume) выше заданного порога для набора связанных запросов.
Presentation / Moments Guide (Презентация / Гид по моментам)
Сгенерированный системой структурированный список идентифицированных популярных моментов, часто включающий ссылки для их просмотра.

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает основной метод работы системы.

  1. Система обнаруживает Search Event (всплеск объема поиска выше порога для связанных запросов).
  2. Идентифицируется соответствующая транслируемая медиапрограмма и конкретный Moment в этой программе, которые ассоциированы по времени с этим поисковым событием.
  3. Генерируется Presentation (Гид), включающая эту программу и момент.
  4. В ответ на запрос от клиентского устройства система передает эту презентацию для отображения.

Claim 2 (Зависимый от 1): Детализирует первый метод идентификации момента (через метаданные).

  1. Система получает Media Content Metadata для программ, транслируемых в период времени, близкий (proximate) ко времени поискового события.
  2. Система идентифицирует метаданные, которые соответствуют (match) запросам, связанным с поисковым событием.
  3. На основе этих совпадений определяются программа и момент.

Claim 3 (Зависимый от 2): Уточняет, что метаданные включают Subtitles data и/или Program guide data (EPG).

Claim 4 (Зависимый от 1): Детализирует второй метод идентификации момента (через аудио-отпечатки с устройств пользователей).

  1. Система получает Content Information (включая записанную аудиоинформацию) от клиентских устройств, с которых были отправлены запросы во время всплеска.
  2. Определяется Content Fingerprint, который соответствует полученной информации.
  3. На основе этого отпечатка идентифицируются программа и момент. Система использует контекст устройства, чтобы понять, что смотрел пользователь, когда начал искать.

Claim 11 (Зависимый от 1): Описывает ранжирование моментов.

  1. Идентифицированные моменты ранжируются на основе характеристик соответствующих им всплесков поискового объема.
  2. Презентация генерируется в соответствии с этим ранжированием (более популярные моменты выше).

Claim 12 (Зависимый от 11): Описывает персонализацию ранжирования.

  1. Ранжирование моментов происходит с учетом демографических критериев пользователя устройства.

Где и как применяется

Изобретение затрагивает несколько этапов поиска, используя данные индексирования для анализа запросов в реальном времени и генерации специальных форматов выдачи.

INDEXING – Индексирование и извлечение признаков
Система полагается на предварительно обработанные данные о медиаконтенте. Это включает индексацию Media Content Metadata (EPG, субтитры) и генерацию Content Fingerprints. Эти данные сохраняются для быстрой корреляции.

QUNDERSTANDING – Понимание Запросов (Анализ в реальном времени)
Ключевой этап. Система в реальном времени анализирует поток поисковых запросов (Search Data), кластеризует связанные запросы и обнаруживает Search Events (всплески). Это глобальный анализ пользовательского интереса.

RANKING – Ранжирование (Ранжирование Моментов)
На этом этапе происходит ранжирование идентифицированных моментов на основе величины соответствующих поисковых всплесков (search volume spikes).

METASEARCH – Метапоиск и Смешивание / RERANKING – Переранжирование
На этом этапе генерируется финальная Presentation (Moments Guide). Это специализированный блок или результат (SERP feature), который агрегирует популярные моменты и предоставляет ссылки. На этапе RERANKING может применяться персонализация на основе демографических данных (Claim 12).

Входные данные:

  • Поток поисковых запросов и временные метки (Search Data).
  • База данных контента (Subtitles Data, EPG Data, Content Fingerprints).
  • (Опционально) Content Information (аудио), получаемая с клиентских устройств во время поиска.
  • Демографические данные пользователей (для персонализации).

Выходные данные:

  • Moments Guide – отсортированный список популярных моментов с ссылками на видеоконтент.

На что влияет

  • Конкретные типы контента: В первую очередь влияет на видеоконтент, который транслируется в прямом эфире или по расписанию (Broadcast Media) – спортивные события, ТВ-шоу, реалити-шоу, новости, церемонии.
  • Специфические запросы: Влияет на трендовые, темпоральные запросы, связанные с актуальными событиями (QDF - Query Deserves Freshness), а также запросы вида «ТВ хайлайты за неделю».
  • Конкретные ниши или тематики: Спорт, развлечения, политика (например, дебаты).

Когда применяется

  • Триггеры активации (Идентификация): Активация происходит при обнаружении Search Event – когда объем поиска по набору связанных запросов превышает predefined threshold (предопределенный порог).
  • Временные рамки: Идентификация моментов происходит в реальном времени или с небольшой задержкой, так как система ищет временную корреляцию между трансляцией и поисковым всплеском.
  • Условия применения (Доставка): Moments Guide предоставляется, когда пользователь запрашивает информацию о медиапрограмме или отправляет релевантный поисковый запрос.

Пошаговый алгоритм

Этап 1: Мониторинг и Обнаружение Событий

  1. Сбор и Анализ данных: Непрерывный анализ потока поисковых данных (Search Data) и кластеризация связанных запросов.
  2. Обнаружение всплесков: Идентификация резкого увеличения объема поиска (spike in search volume) для кластера запросов выше порога. Это фиксируется как Search Event с указанием времени и ключевых слов.

Этап 2: Идентификация Контента и Момента

  1. Временная корреляция: Определение медиапрограмм, которые транслировались в период времени, близкий ко времени Search Event.
  2. Идентификация (Метод А - Метаданные): Получение метаданных (Subtitles Data, EPG Data) для этих программ. Поиск соответствия между ключевыми словами Search Event и текстом метаданных. Успешное сопоставление определяет программу и конкретный момент.
  3. Идентификация (Метод Б - Отпечатки): Получение Content Information (например, записанное аудио) с устройств пользователей, участвовавших в Search Event. Сопоставление этой информации с базой данных Content Fingerprints. Успешное сопоставление определяет программу и момент, который смотрели пользователи.

Этап 3: Ранжирование и Генерация Гида

  1. Ранжирование моментов: Оценка идентифицированных моментов на основе характеристик соответствующего Search Event (например, объем поиска).
  2. Персонализация (Опционально): Корректировка ранжирования с учетом демографических данных пользователя или его предпочтений.
  3. Генерация презентации: Создание Moments Guide. Включение ссылок на просмотр момента (deeplink) и всей программы.

Этап 4: Доставка

  1. Обработка запроса: Получение запроса от пользователя.
  2. Передача гида: Отправка сгенерированного Moments Guide на устройство пользователя для отображения.

Какие данные и как использует

Данные на входе

Система использует комбинацию данных о поведении пользователей и данных о медиаконтенте.

  • Поведенческие факторы (Search Data): Журналы поисковых запросов, включающие текст запроса и время отправки. Это основной источник для обнаружения трендов и интереса пользователей.
  • Контентные/Структурные факторы (Media Content Metadata):
    • Subtitles Data: Текстовые данные субтитров, критически важные для сопоставления поисковых запросов с содержанием момента.
    • EPG Data (Program guide data): Данные телепрограммы, используемые для временной корреляции и получения информации о программе.
  • Технические/Мультимедиа факторы (Content Identification):
    • Content Fingerprints: Предварительно рассчитанные отпечатки аудио/видео.
    • Content Information: Аудио, записанное клиентскими устройствами во время просмотра и поиска (используется в Методе Б идентификации).
  • Пользовательские/Демографические факторы: Demographic Information (возраст, пол, регион, предпочтения). Используются для персонализации ранжирования моментов в гиде (Claim 12).

Какие метрики используются и как они считаются

  • Search Volume Spike (Всплеск поискового объема): Метрика, измеряющая резкое увеличение частоты запросов по сравнению с базовым уровнем за короткий промежуток времени.
  • Predefined Threshold (Порог срабатывания): Минимальный уровень всплеска, необходимый для того, чтобы он был классифицирован как Search Event.
  • Temporal Proximity (Временная близость): Метрика корреляции между временем Search Event и временем трансляции медиапрограммы.
  • Metadata Match Score: Оценка соответствия между ключевыми словами из поисковых запросов и текстом метаданных (субтитров, EPG).
  • Moment Rank Score: Итоговая оценка момента, основанная в первую очередь на Search Volume Spike, и опционально скорректированная с учетом демографических факторов.

Выводы

  1. Поиск как сенсор интереса в реальном времени: Патент демонстрирует, как Google использует агрегированные данные поисковых запросов (Search Spikes) в качестве датчика для выявления культурно значимых событий и трендов в реальном времени, коррелируя их с медиапотреблением.
  2. Критичность метаданных для Video Discoverability: Для автоматической идентификации моментов система сильно полагается на точные и полные метаданные, в частности Subtitles Data и EPG Data. Это критически важно для обнаружения видеоконтента.
  3. Идентификация контента через контекст пользователя (Ambient Data): Система может идентифицировать, что именно смотрит пользователь, анализируя аудио (Content Information), записанное его устройством в момент отправки поискового запроса (Claim 4). Это позволяет точно связать запрос с контентом, даже если пользователь смотрит его на другом экране.
  4. Автоматизация курирования контента и создание SERP-фич: Результатом работы алгоритма является создание специализированного блока – Moments Guide. Это автоматизирует процесс курирования трендового видеоконтента.
  5. Deeplinking в видеоконтент: Целью системы является направление пользователя к просмотру контента. Гид содержит прямые ссылки на конкретный момент (deeplink) на стриминговых платформах.

Практика

Best practices (это мы делаем)

Для Вещателей и Владельцев Видеоконтента:

  • Обеспечение полных и точных субтитров (Transcripts): Критически важно наличие точных субтитров. Это позволяет системе сопоставить трендовые поисковые запросы с содержанием видео и идентифицировать Moment (Claim 2, 3). Не полагайтесь на некачественные автоматические субтитры.
  • Предоставление точных метаданных (EPG): Предоставляйте точные, подробные и своевременные метаданные (Program Guide Data). Включайте названия, имена участников (сущности), ключевые темы.
  • Доступность контента и Deeplinking: Убедитесь, что ваш контент доступен на индексируемых платформах (YouTube, стриминговые сервисы), на которые Google может ссылаться. Используйте разметку временных меток или глав для облегчения создания deeplinks.

Для SEO-специалистов и Издателей (Real-Time SEO):

  • Мониторинг трендов и оперативное реагирование (Trendjacking): Отслеживайте крупные события и трансляции в вашей нише. Будьте готовы максимально быстро создавать контент (новости, обзоры), реагирующий на возникающие Moments. Скорость реакции имеет первостепенное значение.
  • Оптимизация под язык трансляции: Используйте точные термины, имена и фразы, которые звучат в эфире. Поскольку пользователи будут искать именно эти фразы, а Google будет сопоставлять их с субтитрами, точное соответствие терминологии увеличивает релевантность.
  • Использование Live Blogging и частых обновлений: Ведение текстовых трансляций и оперативное обновление страниц во время важных событий помогает захватить трендовый трафик, генерируемый этими «моментами».

Worst practices (это делать не надо)

  • Медленная реакция на тренды: Публикация контента о важных событиях с задержкой не позволит конкурировать за трафик, генерируемый в реальном времени, который Google идентифицирует с помощью этого механизма.
  • Отсутствие текстового сопровождения видео: Размещение видеоконтента без транскриптов или субтитров значительно затрудняет его индексацию и идентификацию системой Moments.
  • Игнорирование сущностей в метаданных: Не указывать ключевые сущности (имена людей, названия команд) в метаданных видео, делая контент менее понятным для системы.

Стратегическое значение

Патент подтверждает стратегию Google по интеграции видеоконтента и анализу трендов в реальном времени. Он демонстрирует технические возможности системы по пониманию контекста событий по мере их возникновения. Для SEO-специалистов это подчеркивает необходимость развития компетенций в области Real-Time SEO и оптимизации не только видео целиком, но и его ключевых фрагментов (моментов), чтобы успешно конкурировать в быстро меняющейся поисковой выдаче.

Практические примеры

Сценарий: Освещение крупного спортивного события

  1. Событие в трансляции: Идет футбольный матч. На 55-й минуте судья принимает спорное решение (назначает пенальти).
  2. Реакция пользователей: Пользователи массово начинают искать: «был ли пенальти [Имя Игрока]», «ошибка судьи [Имя Судьи]».
  3. Действие Google (согласно патенту):
    • Система обнаруживает Spike in search volume по этим запросам.
    • Система коррелирует время всплеска с трансляцией матча.
    • Система идентифицирует Moment: (А) Сопоставляя запросы с субтитрами комментатора или (Б) Анализируя аудио-отпечатки с устройств пользователей, подтверждая, что они смотрят матч.
  4. Генерация Гида: Google формирует Moments Guide для матча, где момент с пенальти ранжируется высоко из-за объема поиска. Клик ведет к просмотру повтора.
  5. Действия SEO-специалиста: Спортивный сайт должен немедленно опубликовать новость или обновить текстовую трансляцию, используя точные ключевые фразы и имена, чтобы ранжироваться рядом с автоматическим гидом Google по информационным запросам, связанным с этим моментом.

Вопросы и ответы

Как именно Google определяет, что всплеск поисковых запросов связан с конкретной телепрограммой?

Патент описывает два основных метода. Первый — временная корреляция и сопоставление метаданных: система ищет совпадения между ключевыми словами запросов и субтитрами или EPG программы, идущей в эфире в момент всплеска. Второй метод — анализ аудио-отпечатков: система может использовать аудио, захваченное устройствами пользователей, которые отправляли эти запросы, и сопоставлять его с отпечатками известных трансляций для точной идентификации.

Что такое «Moments Guide» и где он отображается?

Moments Guide — это сгенерированная системой презентация (дайджест), которая перечисляет самые популярные моменты из медиаконтента. Он может отображаться в результатах поиска при релевантном запросе (как SERP feature), в мобильном приложении-ассистенте (Google Assistant или Discover) или в интерфейсе ТВ-приставки (например, Google TV).

Насколько важна скорость публикации контента в контексте этого патента?

Скорость критически важна. Система предназначена для идентификации моментов в реальном времени на основе всплесков поисковой активности. Чтобы капитализировать этот интерес, контент (будь то новость или видеофрагмент) должен быть создан и проиндексирован максимально быстро после возникновения момента. Это подчеркивает важность стратегий Real-Time SEO.

Как этот патент влияет на оптимизацию видеоконтента (Video SEO)?

Он значительно повышает важность точных метаданных и субтитров. Поскольку система использует субтитры (Claim 3) для сопоставления запросов с контентом, наличие качественной текстовой расшифровки становится ключевым фактором для Video Discoverability. Также важно обеспечить доступность видео на платформах, куда Google может направить пользователя через deeplink.

Упоминается ли в патенте персонализация результатов?

Да, в патенте (Claim 12) явно указано, что ранжирование идентифицированных моментов может происходить с учетом демографических критериев пользователя (demographic criteria), таких как возраст, пол, регион и предпочтения. Это означает, что Moments Guide может быть персонализирован.

Означает ли Claim 4, что Google прослушивает пользователей через их устройства для идентификации контента?

Патент (Claim 4) описывает реализацию, где система получает аудиоинформацию, записанную клиентскими устройствами, с которых были отправлены запросы во время поискового всплеска. Это используется для точной идентификации того, что пользователь смотрел в момент возникновения интереса (контекст поиска). Применение этого механизма на практике зависит от настроек конфиденциальности и разрешений, предоставленных пользователем приложению (например, Google Assistant).

Применяется ли этот механизм только к телевизионному контенту?

Патент фокусируется на Broadcast Media Program, что включает традиционное телевидение, но также охватывает контент, распространяемый через Интернет (стриминг). Механизм применим к любым прямым трансляциям, вызывающим массовый интерес, включая крупные онлайн-трансляции и спортивные события.

Как ранжируются моменты в «Moments Guide»?

Основным фактором ранжирования (Claim 11) является интенсивность соответствующего Search Event. Чем больше объем поиска и чем резче всплеск (Search Volume Spike), тем выше будет ранжироваться связанный с ним момент. Дополнительно учитывается персонализация.

Как этот патент связан с функцией "Ключевые моменты" (Key Moments) на YouTube?

Концептуально они похожи — оба направлены на идентификацию важных фрагментов внутри видео. Однако данный патент фокусируется на идентификации моментов в транслируемом контенте путем анализа внешних сигналов (всплесков поисковых запросов), тогда как Key Moments на YouTube чаще используют внутренние данные платформы или анализ самого контента.

Влияет ли этот патент на ранжирование обычных веб-страниц (синих ссылок)?

Напрямую он не описывает алгоритм ранжирования L1-L3. Однако он описывает механизм обнаружения трендов, который определяет, какой контент является актуальным в данный момент. Эта информация используется системами метапоиска для формирования блоков универсальной выдачи (Top Stories, Видео, Moments Guide), что косвенно влияет на трафик и видимость веб-страниц по трендовым запросам.

Похожие патенты

Как Google связывает всплески поисковых запросов с ТВ-трансляциями для показа контекстной информации в реальном времени
Google отслеживает внезапные всплески частоты поисковых запросов и сопоставляет их с субтитрами (или аудиодорожкой) транслируемых в этот момент телепрограмм. Это позволяет системе понять, какой именно момент в эфире вызвал интерес пользователей, и проактивно предоставить связанную информацию зрителям через «вторые экраны» (например, смартфоны).
  • US9578358B1
  • 2017-02-21
  • Свежесть контента

  • Семантика и интент

  • Персонализация

Как Google автоматически генерирует поисковые запросы на основе аудиоконтекста медиа (ТВ, радио, реклама)
Google использует технологию для автоматизации поиска на основе медиаконтента, потребляемого пользователем. Система записывает аудиосэмпл с устройства пользователя (например, звук телевизора), идентифицирует контент (шоу или рекламу) с помощью аудиофингерпринтинга и извлекает связанную метаинформацию (субтитры, EPG, текст из видео). На основе этих данных автоматически формируется и выполняется поисковый запрос, предоставляя пользователю релевантные результаты без ручного ввода ключевых слов.
  • US8694533B2
  • 2014-04-08
  • Индексация

  • Мультимедиа

  • Семантика и интент

Как Google использует контент, который вы смотрите (например, на ТВ), для автоматического переписывания и персонализации ваших поисковых запросов
Google может анализировать контент (фильмы, шоу, аудио), который пользователь потребляет на одном устройстве (например, ТВ), и использовать эту информацию как контекст для уточнения последующих поисковых запросов. Система распознает аудиовизуальный контекст и автоматически дополняет неоднозначные запросы пользователя, чтобы предоставить более релевантные результаты, в том числе на связанных устройствах (например, смартфоне).
  • US9244977B2
  • 2016-01-26
  • Персонализация

  • Семантика и интент

  • Поведенческие сигналы

Как Google в реальном времени перестраивает поисковые подсказки (Autocomplete) на основе прямых эфиров и трансляций
Google отслеживает прямые эфиры (ТВ, радио, стримы) и извлекает из них ключевые темы и сущности. Система использует эту информацию для повышения в реальном времени релевантных поисковых подсказок (Autocomplete), адаптируя их под текущие события. Это также помогает валидировать всплески поискового интереса (query spikes).
  • US20150149482A1
  • 2015-05-28
  • Свежесть контента

  • Семантика и интент

  • Мультимедиа

Как Google автоматически генерирует и выполняет поисковые запросы на основе того, что пользователь смотрит или слушает
Google патентует систему проактивного поиска для "второго экрана". Анализируя исторические данные, система определяет, что пользователи ищут во время просмотра контента (фильма, матча). Когда новый пользователь смотрит этот контент, система распознает его (например, по звуку) и автоматически выполняет релевантные запросы в нужный момент, показывая свежие результаты без ручного ввода.
  • US10545954B2
  • 2020-01-28
  • Свежесть контента

  • Семантика и интент

  • Мультимедиа

Популярные патенты

Как Google использует анализ со-цитирования (Co-citation) для группировки результатов поиска по темам
Google использует механизм кластеризации для организации поисковой выдачи, особенно при неоднозначных запросах. Система анализирует, какие внешние страницы одновременно ссылаются на несколько результатов поиска (со-цитирование). На основе этого вычисляется показатель сходства, который учитывает и нормализует популярность страниц, чтобы точно сгруппировать результаты по конкретным темам (например, отделить «Saturn» как планету от «Saturn» как автомобиль).
  • US7213198B1
  • 2007-05-01
  • Ссылки

  • SERP

Как Google использует клики пользователей в Поиске по Картинкам для определения реального содержания изображений
Google использует данные о поведении пользователей для автоматической идентификации содержания изображений. Если пользователи вводят определенный запрос (Идею) и массово кликают на конкретное изображение в результатах поиска, система ассоциирует это изображение с Концептом, производным от запроса. Это позволяет Google понимать, что изображено на картинке, не полагаясь исключительно на метаданные или сложный визуальный анализ, и улучшает релевантность ранжирования в Image Search.
  • US8065611B1
  • 2011-11-22
  • Поведенческие сигналы

  • Семантика и интент

  • Мультимедиа

Как Google использует всплески поискового интереса и анализ новостей для обновления Графа Знаний в реальном времени
Google отслеживает аномальный рост запросов о сущностях (людях, компаниях) как индикатор реального события. Система анализирует свежие документы, опубликованные в этот период, извлекая факты в формате Субъект-Глагол-Объект (SVO). Эти факты используются для оперативного обновления Графа Знаний или добавления блока «Недавно» в поисковую выдачу.
  • US9235653B2
  • 2016-01-12
  • Knowledge Graph

  • Свежесть контента

  • Семантика и интент

Как Google определяет интент запроса, анализируя классификацию контента, который кликают пользователи
Google использует данные о поведении пользователей для классификации запросов. Система определяет, какой контент пользователи считают наиболее релевантным для запроса (на основе кликов и времени пребывания). Затем она анализирует классификацию этого контента (например, «продукт», «новости», «взрослый контент») и присваивает доминирующую классификацию самому запросу. Это позволяет уточнить интент и скорректировать ранжирование.
  • US8838587B1
  • 2014-09-16
  • Семантика и интент

  • Поведенческие сигналы

  • SERP

Как Google персонализирует сниппеты и заголовки в выдаче на основе истории поиска и интересов пользователя
Google может динамически изменять сниппеты и заголовки (Title) результатов поиска, чтобы выделить ту часть контента на странице, которая соответствует известным интересам пользователя (история поиска, демография, недавний контекст). Это позволяет сделать представление выдачи более персонализированным, не обязательно изменяя ранжирование документов.
  • US9235626B2
  • 2016-01-12
  • Персонализация

  • SERP

  • Семантика и интент

Как Google использует анализ многословных фраз для улучшения подбора синонимов с учетом грамматического согласования
Google анализирует, как пользователи одновременно меняют несколько слов в запросе (например, при изменении числа или рода). Подтверждая, что каждое измененное слово является лексическим или семантическим вариантом оригинала, Google идентифицирует «синонимы с N-граммным согласованием». Это позволяет системе улучшить понимание синонимов отдельных слов, даже если эти слова редко меняются поодиночке в определенных контекстах.
  • US7925498B1
  • 2011-04-12
  • Семантика и интент

  • Поведенческие сигналы

Как Google идентифицирует, оценивает и ранжирует «Глубокие статьи» (In-Depth Articles) и «Вечнозеленый контент»
Google использует систему для идентификации и ранжирования высококачественного лонгрид-контента (In-Depth Articles). Система определяет авторитетные сайты на основе внешних наград и ссылочных паттернов. Контент оценивается по критериям «вечнозелености» (Evergreen Score), структуры (Article Score), отсутствия коммерческого интента и авторитетности автора (Author Score). Ранжирование основано на комбинации качества (IDA Score) и релевантности запросу (Topicality Score).
  • US9996624B2
  • 2018-06-12
  • EEAT и качество

  • Индексация

  • Семантика и интент

Как Google использует контекст внешних страниц для понимания и идентификации видео и аудио контента
Google анализирует внешние веб-страницы, которые ссылаются на медиафайлы или встраивают их (например, видео YouTube). Система извлекает метаданные из контекста этих страниц — заголовков, окружающего текста, URL. Надежность данных проверяется частотой их повторения на разных сайтах. Эта информация используется для улучшения понимания содержания медиафайла и повышения эффективности систем идентификации контента (Content ID).
  • US10318543B1
  • 2019-06-11
  • Ссылки

  • Индексация

  • Мультимедиа

Как Google агрегирует, оценивает и ранжирует комментарии, отзывы и упоминания о веб-странице из разных источников
Google собирает комментарии, отзывы и посты в блогах, относящиеся к определенной веб-странице. Система использует сложные алгоритмы для определения основной темы упоминаний (особенно если в них несколько ссылок) и ранжирует эти комментарии на основе авторитетности автора, свежести, качества языка и обратной связи пользователей, чтобы представить наиболее полезные мнения.
  • US8745067B2
  • 2014-06-03
  • EEAT и качество

  • Свежесть контента

  • Семантика и интент

Как Google использует историю навигации и клики по рекламе для генерации ключевых слов, гео-таргетинга и выявления MFA-сайтов
Патент Google, описывающий три механизма, основанных на анализе поведения пользователей (selection data). Система использует путь навигации пользователя для генерации новых ключевых слов для рекламы, улучшает гео-таргетинг объявлений на основе предпочтений пользователей, а также выявляет низкокачественные сайты (MFA/манипулятивные) по аномально высокому CTR рекламных блоков.
  • US8005716B1
  • 2011-08-23
  • Поведенческие сигналы

  • Семантика и интент

  • Антиспам

seohardcore