"погода Москва завтра"), система снижает вес добавленных терминов ("завтра") или делает их опциональными. Это гарантирует, что результаты останутся сфокусированными на исходном намерении пользователя, а уточнения используются как фильтры."/> "погода Москва завтра"), система снижает вес добавленных терминов ("завтра") или делает их опциональными. Это гарантирует, что результаты останутся сфокусированными на исходном намерении пользователя, а уточнения используются как фильтры."/> "погода Москва завтра"), система снижает вес добавленных терминов ("завтра") или делает их опциональными. Это гарантирует, что результаты останутся сфокусированными на исходном намерении пользователя, а уточнения используются как фильтры."/>

Google анализирует историю запросов пользователя в рамках одной сессии. Если новый запрос является прямым расширением предыдущего (например, "погода Москва" -> "погода Москва завтра"), система снижает вес добавленных терминов ("завтра") или делает их опциональными. Это гарантирует, что результаты останутся сфокусированными на исходном намерении пользователя, а уточнения используются как фильтры.
Патент решает проблему интерпретации уточняющих запросов, вводимых пользователем в рамках одной поисковой сессии. Когда пользователь добавляет новые термины к предыдущему запросу (например, меняя "погода Атланта" на "погода Атланта прогноз"), стандартные алгоритмы могут придать добавленным терминам равный вес. Это может сместить фокус поиска с исходного намерения, которое пользователь, вероятно, считает релевантным, и ухудшить качество выдачи. Изобретение направлено на сохранение приоритета основного интента над последующими уточнениями.
Запатентован метод контекстуального анализа поисковой сессии (search session) для корректировки значимости терминов. Система определяет, является ли текущий запрос прямым продолжением (добавлением слов в конец) предыдущего запроса. Если да, то атрибуты добавленных терминов (subsequent search terms) корректируются таким образом, чтобы подчеркнуть важность исходной части запроса (predicate subsequence) и снизить влияние уточнений.
Механизм работает следующим образом:
predicate subsequence.subsequent search terms.Weight Adjustment), перевод их в разряд опциональных (Optionalization) или добавление их вариантов/синонимов (Variant Adjustment).Средняя/Высокая. Понимание контекста сессии и эволюции намерения пользователя является фундаментальной задачей поиска. Однако этот патент (подан в 2008 году) описывает довольно простой механизм, основанный на точном совпадении строк и порядка слов. Современные нейросетевые модели (BERT, MUM), вероятно, используют более сложные методы для достижения той же цели, но базовый принцип (уточнение не должно перекрывать основной интент) остается крайне актуальным.
Патент имеет умеренно высокое значение для SEO (6.5/10). Он не описывает алгоритмы ранжирования, но критически важен для понимания этапа Понимания Запросов (Query Understanding). Он демонстрирует, как Google может динамически менять вес терминов в зависимости от поведения пользователя в сессии. Это влияет на стратегию охвата семантики, подчеркивая необходимость удовлетворения базового интента (ядра запроса), поскольку он может получить приоритет над уточняющими словами.
Predicate Subsequence. Это уточнение или модификация исходного интента.Term Cluster).Claim 1 и Claim 8 (Независимые пункты): Описывают основной метод контекстуальной обработки запросов.
predicate subsequence, которая является Q1, и что после этой подпоследовательности в Q2 есть дополнительные термины (subsequent search terms).search term attribute) последующих терминов для изменения относительной важности.reducing a weight), связанного с последующим термином, относительно веса, связанного с предикатной подпоследовательностью.Ядром изобретения является автоматическое распознавание уточнения запроса и реакция на это путем понижения веса добавленных терминов для сохранения фокуса на исходном интенте.
Claims 2 и 9 (Зависимые): Уточняют, что корректировка может включать опционализацию (optionalizing) последующего термина.
Claims 4 и 11 (Зависимые): Уточняют, что корректировка может включать идентификацию варианта (variation) последующего термина и модификацию запроса для включения этого варианта или замены им исходного термина.
Изобретение применяется на этапе интерпретации запроса, до основного процесса ранжирования.
QUNDERSTANDING – Понимание Запросов
Это основной этап применения. Система (Contextual Search Term Evaluator или Query Analysis Module) анализирует входящий запрос в контексте текущей поисковой сессии. Используя журнал сессии (Session Log), система определяет, нужно ли модифицировать запрос (перевзвешивание, опционализация, добавление вариантов).
RANKING – Ранжирование
На этот этап поступает уже модифицированное представление запроса. Алгоритмы ранжирования используют скорректированные веса для расчета релевантности (например, при вычислении IR scores). Если термин был опционализирован, он может не участвовать в первичном отборе кандидатов (L1), но использоваться на последующих этапах (L2/L3).
Входные данные:
Session Log), содержащий предыдущие запросы (Q1).Variant Data), включая синонимы и кластеры терминов.Выходные данные:
Алгоритм применяется при выполнении строгих условий в реальном времени:
Ordered Sequence) терминов, которая полностью совпадает с одним из предыдущих запросов (Q1), и за этой последовательностью должны следовать дополнительные термины (X). Т.е. Q2 = Q1 + X.Процесс контекстуальной оценки поисковых терминов:
Session Log).subsequent search terms (уточнения).Патент фокусируется на использовании контекста сессии для модификации запроса.
Session Log). Это ключевой источник данных для идентификации predicate subsequence.Ordered Sequence) критически важен для идентификации точного совпадения.Term Clusters), используемые для Variant Adjustment. Эти данные генерируются офлайн путем анализа общих логов запросов (например, с помощью k-means clustering).subsequent search terms. В патенте приведен пример нормализации, где терминам предикатной подпоследовательности присваивается вес 1.0, а последующему термину — 0.5. Упоминается возможность использования и масштабирования весов на основе TF-IDF.Optionalization, изменяя требования к наличию термина в документе.Variant Adjustment.predicate subsequence) отражают основной интент и должны иметь приоритет над добавленными уточнениями (subsequent search terms).Weight Adjustment), опционализацию (Optionalization) или расширение синонимами (Variant Adjustment).predicate subsequence) становится критически важной для ранжирования по всему кластеру связанных запросов.Variant Adjustment к уточняющим словам, важно насыщать контент естественными синонимами и связанными терминами. Это повышает вероятность соответствия расширенной интерпретации запроса.Патент подчеркивает, что Google рассматривает поиск не как набор изолированных запросов, а как непрерывный процесс (User Journey). Стратегически это подтверждает важность построения Тематического Авторитета (Topical Authority) вокруг ключевых концепций. SEO-стратегия должна учитывать иерархию интентов. Приоритет должен отдаваться качественному покрытию базовых тем, что создаст фундамент для ранжирования по уточняющим запросам.
Сценарий: Уточнение коммерческого запроса в E-commerce
Predicate Subsequence: "Кроссовки Nike Air Max" (точное совпадение с Q1).Subsequent Search Term: "черные".Weight Adjustment и/или Optionalization. Что такое "Predicate Subsequence" (Предикатная подпоследовательность) простыми словами?
Это предыдущий запрос пользователя, который полностью и в том же порядке содержится в начале его текущего запроса. Например, если пользователь искал "купить велосипед", а затем "купить велосипед москва", то "купить велосипед" является Predicate Subsequence.
Что происходит, когда Google идентифицирует такую последовательность?
Google предполагает, что исходная часть запроса (предыдущий запрос) более важна для пользователя, чем добавленные уточняющие слова. Система может снизить вес добавленных слов, сделать их необязательными для поиска (Optionalization) или автоматически добавить к ним синонимы (Variant Adjustment), чтобы сохранить фокус на основном интенте.
Если пользователь изменит порядок слов в запросе, сработает ли этот механизм?
Нет, согласно патенту. Механизм требует точного совпадения упорядоченной последовательности (Ordered Sequence) терминов. Если пользователь искал "погода москва", а затем "москва погода завтра", механизм не активируется из-за изменения порядка слов.
Активируется ли механизм, если новый термин добавлен в начало или середину запроса?
Нет. Патент строго описывает ситуацию, когда predicate subsequence находится в начале текущего запроса, а subsequent search terms следуют за ней. Он обрабатывает только случаи добавления терминов в конец предыдущего запроса.
Означает ли это, что уточняющие слова (длинный хвост) не важны для SEO?
Нет, они важны. Однако этот патент подчеркивает, что релевантность базовому запросу критична. Если ваша страница не релевантна базовому запросу, она вряд ли будет хорошо ранжироваться по уточненному запросу, даже если идеально соответствует уточняющим словам, так как их вес может быть искусственно снижен.
Насколько сильно понижается вес уточняющего слова?
Патент не указывает точных формул, но приводит пример, где вес терминов основного запроса равен 1.0, а вес уточняющего слова — 0.5. Ключевой момент в том, что вес всегда понижается относительно Predicate Subsequence, чтобы сохранить фокус на исходном интенте.
Что на практике означает "опционализация" (Optionalization) термина?
Это означает, что термин не является обязательным для включения в результаты поиска. Система будет искать документы, релевантные основному запросу, а опциональный термин будет использоваться для улучшения ранжирования тех документов, где он присутствует, но не будет отфильтровывать документы, где его нет.
Применяется ли этот механизм только к запросу, непосредственно следующему за исходным?
Нет. Патент указывает, что любой предыдущий запрос в рамках сессии может быть идентифицирован как Predicate Subsequence в текущем запросе, даже если между ними были другие промежуточные запросы.
Как этот механизм соотносится с современными NLP моделями типа BERT или MUM?
Этот патент (2008 год) описывает прямолинейный, основанный на правилах подход (точное совпадение строк). Современные модели (BERT, MUM) понимают контекст и эволюцию интента гораздо глубже, не требуя точного совпадения порядка слов. Вероятно, этот патент описывает одну из ранних систем, логика которой интегрирована в более сложные современные механизмы Query Understanding.
Как этот патент влияет на стратегию создания контента?
Он поддерживает стратегию "Hub and Spoke". Необходимо создавать сильные "Хаб"-страницы, которые отвечают на базовые интенты (предикаты). Авторитет Хаба будет определяющим для ранжирования по всему кластеру запросов, включая уточнения ("спицы"), так как система приоритизирует ядро запроса.

Семантика и интент
Поведенческие сигналы

Семантика и интент

Семантика и интент


SERP
Семантика и интент

Структура сайта
Техническое SEO
Индексация

Индексация
Техническое SEO
Структура сайта

Knowledge Graph
Семантика и интент
Ссылки

SERP
EEAT и качество
Поведенческие сигналы

Свежесть контента
Ссылки
Техническое SEO

Поведенческие сигналы
Семантика и интент
Мультимедиа

Персонализация
Поведенческие сигналы
SERP

Персонализация
Поведенческие сигналы
SERP

Поведенческие сигналы
Индексация
Техническое SEO

Local SEO
Поведенческие сигналы
