SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google фильтрует персонализированные предложения запросов на основе контента просматриваемой страницы

QUERY SUGGESTIONS FOR A DOCUMENT BASED ON USER HISTORY (Предложения запросов для документа на основе истории пользователя)
  • US8392435B1
  • Google LLC
  • 2010-07-06
  • 2013-03-05
  • Персонализация
  • Поведенческие сигналы
  • SERP
  • Семантика и интент
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google использует механизм для генерации предложений следующего запроса после того, как пользователь покинул страницу выдачи. Система создает кандидатов на основе истории поиска пользователя, а затем фильтрует их, проверяя релевантность контенту страницы, которую пользователь просматривает в данный момент. Это гарантирует, что предложения соответствуют как интересам пользователя, так и текущему контексту просмотра.

Описание

Какую проблему решает

Патент решает задачу предоставления релевантных предложений для продолжения поиска (query suggestions) после того, как пользователь покинул страницу результатов поиска (SERP) и перешел на конкретный ресурс. Проблема заключается в необходимости сбалансировать персонализацию (основанную на истории поиска пользователя) с текущим контекстом (контентом просматриваемой страницы). Цель — предложить пользователю следующий шаг, который связан с его предыдущими интересами и одновременно релевантен информации, которую он потребляет в данный момент. Также решается проблема потери актуальности предложений, если пользователь слишком далеко отклонился от первоначальной темы поиска.

Что запатентовано

Запатентована система генерации и фильтрации предложений запросов. Система создает набор кандидатов (candidate set of search query suggestions), основываясь на данных истории поиска пользователя (search history data). Затем этот набор фильтруется на основе контента ресурса, который пользователь просматривает. В финальный набор попадают только предложения, удовлетворяющие relevancy criterion по отношению к контенту. Также описаны механизмы ограничения этой функции (evaluation relevance threshold) при дальнейшей навигации.

Как это работает

Механизм работает следующим образом:

  • Сбор истории: Система (на сервере или клиенте) собирает историю запросов, кликов и связанных данных пользователя.
  • Генерация кандидатов: Когда пользователь просматривает ресурс, генерируется список потенциальных предложений запросов, основанных на его истории.
  • Анализ контента: Анализируется контент текущего ресурса.
  • Фильтрация по релевантности: Каждый кандидат оценивается на соответствие контенту ресурса с использованием relevancy criterion (например, на основе частоты терминов). Нерелевантные предложения исключаются.
  • Отображение: Финальный набор отображается пользователю (например, в тулбаре браузера).
  • Ограничение навигации: Система может прекратить генерацию предложений, если пользователь ушел слишком далеко (по количеству кликов или по схожести контента) от исходного результата поиска.

Актуальность для SEO

Средняя. Персонализация и понимание контекста пользователя остаются критически важными для Google. Хотя конкретная реализация, описанная в патенте (например, через тулбар), может быть устаревшей, а методы анализа (Term Frequency, Cosine Similarity) вероятно дополнены более сложными NLP-моделями (например, embeddings), базовая логика объединения истории пользователя и анализа текущего контекста для генерации рекомендаций остается актуальной (например, в Google Discover или системах понимания сессии).

Важность для SEO

Влияние на SEO оценивается как среднее (5 из 10). Это не патент о ранжировании. Он описывает механизм улучшения пользовательского опыта (UX) и помощи в уточнении запросов после ухода с SERP. Однако он важен для понимания того, как Google интерпретирует контент страницы для определения его контекста и как отслеживает тематическую когерентность поисковых сессий. Это косвенно влияет на SEO, подтверждая важность четкой тематической направленности контента и релевантности внутренних ссылок.

Детальный разбор

Термины и определения

Candidate set of search query suggestions (Набор кандидатов в предложения запросов)
Предварительный список предложений, сгенерированный на основе истории поиска пользователя, до его фильтрации по релевантности контенту.
Cosine Similarity Score (Оценка косинусного сходства)
Метрика, используемая для определения тематического сходства между двумя ресурсами путем сравнения их Vocabulary term vectors. Используется для расчета Evaluation Relevance Threshold.
Evaluation Relevance Threshold (Порог релевантности для оценки)
Порог, определяющий, следует ли продолжать генерацию предложений при навигации пользователя. Если страница слишком далека от исходного результата (по расстоянию N кликов или по схожести контента), порог не достигается.
Relevance Score (Оценка релевантности)
Числовая мера релевантности предложения запроса контенту просматриваемого ресурса.
Relevancy Criterion (Критерий релевантности)
Условие, которому должно удовлетворять предложение, чтобы считаться релевантным контенту ресурса (например, превышение минимального Relevance Score).
Search History Data (Данные истории поиска)
Агрегированные данные о предыдущей поисковой активности пользователя (логи запросов Query Logs, логи кликов Click Logs, извлеченные темы, домены и сниппеты), связанные с уникальным идентификатором.
Term Frequency Function (Функция частоты термина)
Функция, определяющая частоту терминов из предлагаемого запроса в контенте ресурса. Используется для расчета Relevance Score.
Vocabulary term vector (Вектор терминов словаря)
Векторное представление контента ресурса, где каждый элемент представляет вес (например, частоту) определенного термина (исключая стоп-слова).

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает базовый процесс генерации предложений для ресурса, выбранного из результатов поиска.

  1. Система получает контент первой веб-страницы, на которую перешли по клику на результат поиска.
  2. Система получает набор кандидатов (candidate set), основанный на истории поиска (search history data) пользователя.
  3. Для каждого кандидата:
    • Вычисляется Relevance Score, измеряющий релевантность кандидата контенту страницы.
    • Определяется, удовлетворяет ли кандидат relevancy criterion.
    • Если ДА, кандидат включается в финальный набор; если НЕТ — исключается.
  4. Финальный набор предоставляется пользователю.

Ядро изобретения — фильтрация персонализированных предложений (основанных на истории) по релевантности текущему контенту.

Claim 7 и 8 (Зависимые): Уточняют место выполнения процесса. Claim 7 описывает реализацию на стороне клиента (используя локальную историю), а Claim 8 — на стороне сервера (поисковой системы).

Claim 9 (Зависимый): Расширяет процесс на последующую навигацию (переход по ссылкам с первой страницы).

  1. Система получает контент последующего ресурса.
  2. Определяется, соответствует ли он Evaluation Relevance Threshold.
  3. Если ДА, то процесс из Claim 1 повторяется: кандидаты фильтруются по релевантности контенту этого последующего ресурса.

Это вводит ограничение на глубину или тематическое отклонение навигации.

Claims 10 и 11 (Зависимые): Определяют варианты реализации Evaluation Relevance Threshold.

  • Claim 10: Порог определяется как нахождение в пределах N последующих кликов от первого ресурса (ограничение по глубине).
  • Claim 11: Порог определяется как превышение минимальной оценки косинусного сходства (cosine similarity score) между векторными представлениями контента первого и последующего ресурсов (ограничение по тематике).

Claim 12 (Независимый пункт): Описывает альтернативный процесс, который вносит важное различие в обработку первого клика и последующих.

  1. Система получает контент ресурса и набор кандидатов.
  2. Условие 1: Если ресурс является результатом прямого клика с SERP (первый клик):
    • Предложения включаются в финальный набор независимо от контента ресурса (independent of the content of the resource). Фильтрация по контенту не применяется.
  3. Условие 2: Если ресурс выбран в пределах N последующих кликов (дальнейшая навигация):
    • Применяется фильтрация на основе relevancy criterion по отношению к контенту ресурса (как в Claim 1).
  4. Финальный набор предоставляется пользователю.

Этот пункт предполагает, что при первом переходе с SERP фильтрация может не применяться, активируясь только при дальнейшем углублении пользователя.

Где и как применяется

Этот патент описывает механизм, функционирующий преимущественно на стыке понимания запросов и пользовательского опыта. Он может быть реализован как на стороне сервера, так и на стороне клиента (например, в браузере или тулбаре).

QUNDERSTANDING – Понимание Запросов

Система использует Search History Data для понимания долгосрочных интересов пользователя и контекста текущей сессии. Это необходимо для генерации релевантного набора кандидатов (candidate set). Изобретение расширяет этот этап за пределы SERP на страницы ресурсов.

INDEXING – Индексирование и извлечение признаков (Косвенно)

Для работы механизма необходимо анализировать контент просматриваемого ресурса. Это требует доступа к контенту и извлечения признаков (например, частоты терминов или Vocabulary term vectors), что обычно происходит на этапе индексирования или при анализе в реальном времени.

Входные данные:

  • Контент просматриваемого ресурса.
  • Уникальный идентификатор пользователя.
  • Search History Data (логи запросов, кликов, темы).
  • Исходный поисковый запрос.
  • Данные о навигации (путь от SERP до текущего ресурса).

Выходные данные:

  • Final set of search query suggestions, адаптированный к контенту ресурса и истории пользователя.

На что влияет

  • Специфические запросы: Наиболее полезен для информационных и исследовательских запросов, где пользователь изучает тему, склонен просматривать несколько страниц и уточнять свой запрос по мере получения информации.
  • Типы контента: Влияет на страницы с достаточным количеством текста для анализа (статьи, новости, обзоры), где можно рассчитать term frequency или создать vocabulary term vector.

Когда применяется

Алгоритм применяется при выполнении следующих условий:

  • Триггер активации: Пользователь перешел с SERP на ресурс и, возможно, продолжил навигацию.
  • Условия работы: Наличие достаточного объема Search History Data для генерации кандидатов.
  • Пороговые значения (Evaluation Relevance Threshold): При последующей навигации алгоритм работает, только если текущая страница удовлетворяет порогу (не слишком далеко по N кликам ИЛИ достаточно похожа по контенту на исходную страницу).
  • Вариативность активации (Сравнение Claim 1 и Claim 12): Патент предлагает два варианта: фильтрация по контенту применяется сразу (Claim 1) или только начиная со второй страницы навигации (Claim 12).

Пошаговый алгоритм

Описанный процесс может выполняться как на клиенте, так и на сервере.

Этап 1: Сбор данных и инициализация

  1. Получение запроса и обработка SERP: Пользователь отправляет запрос, система возвращает результаты.
  2. Обновление истории: Исходный запрос и связанная информация (например, сниппеты из SERP) сохраняются в Search History Data.
  3. Переход на ресурс: Пользователь выбирает результат и запрашивает ресурс. Система получает его контент.
  4. Генерация кандидатов: Система генерирует candidate set of search query suggestions, основываясь на Search History Data.

Этап 2: Фильтрация предложений

  1. Проверка условий фильтрации (Опционально, согласно Claim 12):
    • Если это первый клик с SERP, система может пропустить фильтрацию по контенту и перейти к Этапу 3.
  2. Фильтрация по релевантности: Для каждого кандидата:
    • Вычисляется Relevance Score по отношению к контенту текущего ресурса (например, с использованием Term Frequency Function).
    • Проверяется relevancy criterion (превышает ли Relevance Score порог или входит ли в Топ-N).
    • Кандидат включается или исключается из финального набора.

Этап 3: Отображение и навигация

  1. Отображение результатов: Финальный набор предложений отображается пользователю.
  2. Последующая навигация: Если пользователь переходит на другую страницу.
  3. Проверка порога (Evaluation Relevance Threshold): Система проверяет глубину N кликов ИЛИ косинусное сходство с исходной страницей.
    • Если порог не достигнут: Процесс останавливается.
    • Если порог достигнут: Возврат к Этапу 2 (Шаг 6) для анализа контента новой страницы.

Какие данные и как использует

Данные на входе

  • Контентные факторы: Текст просматриваемого ресурса. Система анализирует его для определения частоты терминов (term frequency) и создания векторов терминов (vocabulary term vectors), исключая стоп-слова.
  • Поведенческие факторы: Search History Data. Включает логи запросов (Query Logs), логи кликов (Click Logs). Также упоминается возможность извлечения данных из сниппетов на SERP, доменных имен и тем (topics), к которым принадлежат предыдущие запросы.
  • Пользовательские факторы: Unique identifier (cookie, аккаунт) для связи запросов с историей. Данные навигации (последовательность кликов) для определения глубины сессии.

Какие метрики используются и как они считаются

  • Relevance Score: Измеряет релевантность предложения запроса контенту. В патенте предлагается использовать Term Frequency Function: частота появления терминов из предложения в контенте ресурса. Для многословных запросов значения могут усредняться.
  • Relevancy Criterion: Определяет, включать ли предложение в финальный набор. Варианты реализации:
    • Сравнение Relevance Score с минимальным порогом.
    • Нормализация оценок и выбор Топ-N предложений с наивысшими оценками.
  • Evaluation Relevance Threshold: Определяет, активна ли функция при навигации. Варианты расчета:
    • Глубина кликов (N): Количество последующих переходов по ссылкам от исходного результата поиска (например, N=5, 10 или 15).
    • Cosine Similarity Score: Сравнение vocabulary term vectors текущей и исходной страниц для определения тематического сходства. Векторы строятся на основе не-стоп слов, вес термина пропорционален частоте его встречаемости.

Выводы

  1. Контекст как фильтр персонализации: История поиска пользователя определяет его интересы (кандидатов), но контент текущей страницы определяет контекст. Финальные предложения должны быть релевантны и тому, и другому. Персонализированные предложения фильтруются, если они не соответствуют контенту на экране.
  2. Методы анализа контента (Classic IR): Для оценки релевантности и сходства контента система использует классические методы Information Retrieval: Term Frequency (для оценки запрос-документ) и Vocabulary Term Vectors с Cosine Similarity (для оценки документ-документ).
  3. Отслеживание сессий и дрейф намерений: Google анализирует путь пользователя по сайту после ухода с SERP. Механизм Evaluation Relevance Threshold (ограничение по глубине N кликов или по схожести контента) определяет границы, в которых система считает текущую активность связанной с исходным запросом (определяет дрейф намерений).
  4. Разная логика для первого клика (Claim 12): Патент описывает возможность разной логики обработки. Для первого ресурса, выбранного из SERP, предложения могут выдаваться на основе истории без фильтрации по контенту. Фильтрация активируется только при дальнейшей навигации.
  5. Гибкость реализации (Клиент/Сервер): Система может работать как на стороне сервера, так и на стороне клиента (браузер или тулбар), что позволяет обрабатывать локальную историю поиска с учетом приватности.

Практика

Best practices (это мы делаем)

  • Обеспечение четкой тематической фокусировки контента: Поскольку система использует Term Frequency и векторные представления для определения контекста страницы, контент должен быть четко сфокусирован на теме. Это повышает вероятность того, что система рассчитает высокий Relevance Score для предложений запросов, связанных с вашей тематикой.
  • Использование ясной и релевантной терминологии: Насыщение контента релевантными терминами и сущностями помогает системе (включая этот алгоритм) правильно интерпретировать содержание страницы и ее сходство с другими страницами (Vocabulary term vector).
  • Оптимизация внутренней перелинковки для тематической связности: Система отслеживает навигацию и использует cosine similarity (Claim 11) между страницами, чтобы определить, сохраняется ли контекст сессии. Внутренние ссылки должны вести на тематически близкие страницы. Резкие тематические сдвиги при навигации могут привести к превышению Evaluation Relevance Threshold.
  • Оптимизация под поисковые сессии: Понимайте путь пользователя (User Journey). Оптимизируйте контент так, чтобы он соответствовал как исходному запросу, так и потенциальным последующим уточнениям, которые Google может предложить, основываясь на содержании вашей страницы.

Worst practices (это делать не надо)

  • Смешивание несвязанных тем на одной странице (Content Dilution): Это затруднит системе определение четкого контекста страницы. Relevance Score для конкретных запросов будет низким, так как ни один кандидат не достигнет relevancy criterion.
  • Использование вводящей в заблуждение внутренней перелинковки: Размещение ссылок на совершенно не связанные по тематике страницы. Если тематическое сходство (cosine similarity) между страницей входа и целевой страницей низкое, система определит, что контекст пользователя изменился (Claim 11).
  • Поверхностный контент (Thin Content): Контент с недостаточным количеством релевантных терминов может не обеспечить достаточный Relevance Score для генерации контекстных предложений.

Стратегическое значение

Этот патент подтверждает стратегическую направленность Google на понимание всего пути пользователя (Search Journey) и контекста сессии, а не только отдельных запросов и страниц. Для SEO это означает, что оптимизация должна учитывать не только привлечение пользователя из поиска, но и поддержку его информационной потребности после клика. Стратегия должна фокусироваться на создании тематических кластеров и обеспечении логичной, тематически связанной навигации внутри сайта, чтобы соответствовать моделям, которые Google использует для анализа сходства контента и отслеживания контекста сессии.

Практические примеры

Сценарий 1: Фильтрация предложений на основе контента

Пользователь ищет "лучшие пляжи Бали". В его истории много запросов о бюджетных путешествиях ("хостелы Бали", "дешевые перелеты").

  1. Переход на статью: Пользователь кликает на вашу статью "Топ-10 пляжей Бали".
  2. Генерация кандидатов (на основе истории): Система генерирует: "хостелы на Бали", "дешевые авиабилеты на Бали", "аренда скутера на Бали".
  3. Фильтрация по контенту:
    • Если ваша статья сфокусирована только на люксовых отелях и ресторанах, предложения "хостелы на Бали" получат низкий Relevance Score и будут отфильтрованы.
    • Действие SEO: Если ваша аудитория — бюджетные путешественники, убедитесь, что статья упоминает варианты недорогого жилья рядом или советы по экономии. Это повысит Relevance Score для целевых предложений.

Сценарий 2: Ограничение по схожести контента (Evaluation Relevance Threshold)

  1. Исходный контекст: Пользователь читает статью о "Влиянии рецессии на BigCo" (Ресурс 1).
  2. Навигация: Пользователь кликает на ссылку, ведущую на домашнюю страницу BigCo (Ресурс 2).
  3. Проверка порога: Система сравнивает Cosine Similarity между Ресурсом 1 и Ресурсом 2. Сходство достаточное. Генерация предложений (например, "вакансии BigCo") продолжается, но фильтруется по контенту Ресурса 2.
  4. Дальнейшая навигация: С домашней страницы пользователь переходит на страницу обзора нового продукта BigCo (Ресурс 3).
  5. Проверка порога: Система сравнивает Cosine Similarity между Ресурсом 1 и Ресурсом 3. Сходство низкое (статья о рецессии vs обзор продукта). Порог не пройден.
  6. Результат: Система прекращает генерировать подсказки, связанные с исходным контекстом рецессии/вакансий, так как интент пользователя изменился.

Вопросы и ответы

Влияет ли этот патент напрямую на ранжирование моего сайта?

Нет, этот патент не описывает алгоритмы ранжирования. Он описывает механизм генерации предложений запросов (query suggestions) после того, как пользователь уже перешел на сайт из поиска. Его цель — улучшить дальнейшую навигацию и уточнение запросов пользователя, а не определить позицию сайта в SERP.

Как система определяет релевантность предложения контенту страницы?

Патент предлагает использовать классические методы Information Retrieval, в первую очередь Term Frequency. Система проверяет, как часто термины из предлагаемого запроса встречаются в контенте просматриваемой страницы. На основе этого рассчитывается Relevance Score, который затем сравнивается с пороговым значением (relevancy criterion).

Что такое Evaluation Relevance Threshold и как он влияет на SEO?

Это порог, который определяет, будет ли система продолжать генерировать предложения при навигации пользователя по сайту. Он может рассчитываться по глубине кликов (не более N кликов) или по тематическому сходству (cosine similarity) между текущей и исходной страницами. Для SEO это подчеркивает важность создания тематически связанных кластеров контента и логичной внутренней перелинковки для поддержания контекста сессии.

Что означает, что система может работать на стороне клиента?

Патент описывает возможность реализации этого механизма непосредственно в браузере или тулбаре пользователя (Claim 7). В этом случае история поиска хранится локально на устройстве пользователя, и анализ контента также происходит локально. Это сделано для повышения конфиденциальности пользователей, которые не хотят передавать свою историю поиска на серверы Google.

Как история поиска пользователя влияет на этот процесс?

История поиска (Search history data) используется на первом этапе для генерации набора кандидатов (candidate set). Она определяет спектр интересов пользователя. Например, если пользователь часто ищет вакансии, то по запросу "Компания А" кандидаты будут смещены в сторону "Компания А вакансии". Затем этот персонализированный набор фильтруется по контенту страницы, которую он просматривает.

Применяется ли фильтрация по контенту сразу после перехода из SERP?

В патенте описаны два варианта. Claim 1 предполагает, что фильтрация применяется немедленно. Однако Claim 12 описывает альтернативный метод, где на первой странице после SERP предложения показываются независимо от контента (только на основе истории), а фильтрация начинается только при дальнейшей навигации по сайту (второй клик и далее).

Как я могу оптимизировать свой контент под этот механизм?

Ключевая стратегия — обеспечить максимальную ясность и тематическую сфокусированность контента. Используйте релевантную терминологию и хорошо структурируйте текст. Это поможет системе точно рассчитать Term Frequency и создать качественный Vocabulary term vector, что позволит ей лучше понять контекст страницы и ее релевантность потенциальным следующим запросам.

Что произойдет, если пользователь перейдет по внутренней ссылке на совершенно другую тему?

Система сравнит тематическое сходство (cosine similarity) новой страницы с исходной (Claim 11). Если сходство окажется ниже порога (evaluation relevance threshold), система определит, что контекст пользователя изменился (произошел дрейф намерений), и прекратит генерацию контекстных предложений, основанных на исходном запросе.

Используются ли в этом патенте нейронные сети или машинное обучение?

Патент (подан в 2010 году) не упоминает современные методы машинного обучения или нейронные сети. Он опирается на традиционные методы, такие как логи запросов, частота терминов (TF) и косинусное сходство векторов. Хотя базовые принципы актуальны, современные реализации Google, вероятно, используют более продвинутые NLP-технологии (например, embeddings) для достижения тех же целей.

Каково основное значение этого патента для SEO-стратегии?

Основное значение заключается в подтверждении того, что Google анализирует путь пользователя и тематическую связность контента внутри сайта в рамках одной сессии. Это подчеркивает необходимость стратегического подхода к архитектуре сайта и внутренней перелинковке, направленного на создание когерентных тематических кластеров, поддерживающих поисковую сессию пользователя (Search Journey).

Похожие патенты

Как Google персонализирует рекомендации популярных запросов на основе истории поиска и браузинга пользователя
Google анализирует глобальные тренды поисковых запросов и сопоставляет их с индивидуальной историей пользователя (посещенные сайты, прошлые запросы, категории интересов). Если популярный запрос соответствует выявленным интересам пользователя, он будет рекомендован. Система также применяет фильтры, исключающие запросы, которые пользователь вводил недавно.
  • US9443022B2
  • 2016-09-13
  • Персонализация

  • Поведенческие сигналы

  • Свежесть контента

Как Google автоматически дополняет запросы пользователя терминами из его недавней истории поиска для уточнения интента
Google использует механизм для улучшения релевантности результатов путем анализа недавней истории поиска пользователя. Если текущий запрос похож на предыдущие, система определяет ключевые контекстные термины, которые часто повторялись в истории (устойчивый интент), но отсутствуют в текущем запросе. Эти термины автоматически добавляются к запросу, чтобы предоставить более точные и персонализированные результаты.
  • US9449095B1
  • 2016-09-20
  • Семантика и интент

  • Персонализация

  • Поведенческие сигналы

Как Google персонализирует поисковую выдачу, анализируя историю кликов и поведение пользователя на сайте
Google использует механизм для персонализации поисковой выдачи на основе истории взаимодействия пользователя с результатами поиска. Система отслеживает, какие сайты пользователь выбирает, как долго он на них остается (Dwell Time), частоту и контекст выбора. Основываясь на этих данных, предпочитаемые пользователем ресурсы повышаются в ранжировании при его последующих запросах.
  • US9037581B1
  • 2015-05-19
  • Персонализация

  • Поведенческие сигналы

  • SERP

Как Google персонализирует выдачу, понижая результаты, которые пользователь исторически игнорирует или быстро покидает
Google использует историю поиска пользователя для выявления результатов, которые пользователь систематически пропускает или считает нерелевантными (например, быстро возвращается на выдачу). Такие результаты идентифицируются как «нежелательные» (User-Disfavored) и активно понижаются в персональной выдаче для этого пользователя, даже если их общий рейтинг высок.
  • US7827170B1
  • 2010-11-02
  • Персонализация

  • Поведенческие сигналы

  • SERP

Как Google выбирает предлагаемые запросы, анализируя вероятность завершения поиска и коммерческую ценность
Google использует графовую модель для анализа поисковых сессий пользователей. Система определяет, какие уточняющие запросы чаще всего приводят к завершению поиска (становятся «финальным пунктом назначения»). Эти запросы считаются обладающими наибольшей «полезностью» (Utility) и предлагаются пользователю в качестве подсказок или связанных запросов. Система также учитывает коммерческий потенциал этих запросов и может показывать для них релевантные рекламные блоки.
  • US8751520B1
  • 2014-06-10
  • SERP

  • Поведенческие сигналы

  • Семантика и интент

Популярные патенты

Как Google определяет интент запроса, анализируя классификацию контента, который кликают пользователи
Google использует данные о поведении пользователей для классификации запросов. Система определяет, какой контент пользователи считают наиболее релевантным для запроса (на основе кликов и времени пребывания). Затем она анализирует классификацию этого контента (например, «продукт», «новости», «взрослый контент») и присваивает доминирующую классификацию самому запросу. Это позволяет уточнить интент и скорректировать ранжирование.
  • US8838587B1
  • 2014-09-16
  • Семантика и интент

  • Поведенческие сигналы

  • SERP

Как Google игнорирует часто меняющийся контент и ссылки в нем, определяя "временные" блоки шаблона сайта
Google использует механизм для отделения основного контента от динамического шума (реклама, виджеты, дата). Система сравнивает разные версии одной страницы, чтобы найти часто меняющийся контент. Затем она анализирует HTML-структуру (путь) этого контента и статистически определяет, является ли этот структурный блок "временным" для всего сайта. Такой контент игнорируется при индексации и таргетинге рекламы, а ссылки в нем могут не учитываться при расчете PageRank.
  • US8121991B1
  • 2012-02-21
  • Индексация

  • Техническое SEO

  • Структура сайта

Как Google использует контент, который вы смотрите (например, на ТВ), для автоматического переписывания и персонализации ваших поисковых запросов
Google может анализировать контент (фильмы, шоу, аудио), который пользователь потребляет на одном устройстве (например, ТВ), и использовать эту информацию как контекст для уточнения последующих поисковых запросов. Система распознает аудиовизуальный контекст и автоматически дополняет неоднозначные запросы пользователя, чтобы предоставить более релевантные результаты, в том числе на связанных устройствах (например, смартфоне).
  • US9244977B2
  • 2016-01-26
  • Персонализация

  • Семантика и интент

  • Поведенческие сигналы

Как Google автоматически изучает синонимы, анализируя последовательные запросы пользователей и вариации анкорных текстов
Google использует методы для автоматического определения синонимов, акронимов и эквивалентных фраз. Система анализирует логи запросов: если пользователь быстро меняет запрос, сохраняя часть слов (например, с «отели в париже» на «гостиницы в париже»), система учится, что «отели» и «гостиницы» эквивалентны. Также анализируются вариации анкорных текстов, указывающих на одну и ту же страницу.
  • US6941293B1
  • 2005-09-06
  • Семантика и интент

  • Ссылки

Как Google использует исторические данные о кликах по Сущностям для ранжирования нового или редко посещаемого контента
Google решает проблему «холодного старта» для новых страниц, у которых нет собственных поведенческих данных. Система агрегирует историю кликов на уровне Сущностей (Entities). Если сущности, упомянутые на новой странице, исторически имеют высокий CTR по целевому запросу, страница получает бустинг в ранжировании, наследуя поведенческие сигналы через эти сущности.
  • US10303684B1
  • 2019-05-28
  • Поведенческие сигналы

  • Семантика и интент

  • SERP

Как Google использует данные сессий и разнообразие результатов для генерации блока "Связанные запросы"
Google анализирует поисковые сессии пользователей, чтобы найти запросы, которые часто следуют за одним и тем же предшествующим запросом (родственные запросы). Затем система фильтрует эти потенциальные "Связанные запросы", чтобы убедиться, что они предлагают разнообразные результаты по сравнению с исходным запросом и другими предложениями, помогая пользователям исследовать смежные, но отличные темы.
  • US8244749B1
  • 2012-08-14
  • Семантика и интент

  • Персонализация

  • Поведенческие сигналы

Как Google определяет авторитетные сайты для конкретных тем, анализируя «гибридные запросы» пользователей
Google анализирует «гибридные запросы» (например, «back pain WebMD»), чтобы понять, какие сайты пользователи считают лучшими источниками информации по конкретным темам. Система создает карты соответствия между темами и авторитетными ресурсами. Эти данные используются для повышения релевантности авторитетных сайтов в выдаче по информационным запросам и для улучшения поисковых подсказок.
  • US9244972B1
  • 2016-01-26
  • EEAT и качество

  • Семантика и интент

  • SERP

Как Google использует социальный граф и активность друзей для персонализации и переранжирования результатов поиска
Google использует данные из социального графа пользователя и активность его контактов (лайки, шеры, комментарии, плейлисты) для изменения ранжирования результатов поиска. Контент, одобренный социальным окружением, повышается в выдаче и сопровождается аннотациями, объясняющими причину повышения и указывающими на свежесть социального действия.
  • US8959083B1
  • 2015-02-17
  • Персонализация

  • Поведенческие сигналы

  • SERP

Как Google определяет ключевую тематику зданий и адресов, используя клики пользователей для показа релевантной рекламы
Google использует этот механизм для понимания основного назначения физического местоположения (адреса или здания). Система анализирует все бизнесы в этой локации и определяет, какие поисковые запросы чаще всего приводят к кликам по их листингам. Самый популярный запрос используется как доминирующее ключевое слово для выбора релевантной рекламы, когда пользователи ищут этот адрес или взаимодействуют с ним на Картах или в Street View.
  • US20120278171A1
  • 2012-11-01
  • Local SEO

  • Семантика и интент

  • Поведенческие сигналы

Как Google рассчитывает оценку авторитетности сайта, используя соотношение Независимых Ссылок и Брендовых Запросов
Google рассчитывает метрику авторитетности для веб-сайтов на основе соотношения количества независимых входящих ссылок к количеству брендовых (референсных) запросов. Сайты, имеющие много независимых ссылок относительно их поисковой популярности, получают преимущество. Напротив, популярные сайты с недостаточным количеством внешних ссылок могут быть понижены в ранжировании по общим запросам.
  • US8682892B1
  • 2014-03-25
  • Ссылки

  • EEAT и качество

  • SERP

seohardcore