
Google использует метод обучения моделей ранжирования, который выходит за рамки одного поискового запроса. Система сравнивает релевантность документа для Запроса А с релевантностью другого документа для Запроса Б, если эти запросы семантически похожи. Это позволяет моделям лучше обобщать сигналы релевантности внутри тематических кластеров и эффективнее определять порядок результатов.
Патент решает проблему неэффективности традиционных методов обучения ранжированию (Learning to Rank, LTR), которые обычно анализируют пары документов только в рамках одного списка результатов (т.е. для одного запроса). Это ограничивает объем данных для обучения, особенно при коротких списках результатов. Агрегация результатов из разных, не связанных между собой запросов в один обучающий батч может ухудшить точность ранжирования для каждого отдельного запроса, так как критерии релевантности могут сильно различаться. Изобретение позволяет использовать данные из разных списков, сохраняя при этом точность для конкретного запроса.
Запатентована система обучения ранжированию, которая использует пары элементов (документов), взятые из разных обучающих примеров (разных списков результатов поиска или рекомендаций). Ключевым механизмом является взвешивание вклада этой пары в функцию потерь (Ranking Loss) на основе Correlation Score — показателя схожести между запросами (или другими атрибутами), которые сгенерировали эти списки. Это позволяет модели учиться на большем объеме данных, используя информацию из семантически связанных контекстов.
Система работает по принципу Cross-List Learning to Rank (XLR):
Query Embeddings), полученных, например, с помощью самой модели ранжирования или механизма внимания (Attention Mechanism).Correlation Score.Высокая. Патент подан в 2023 году и опубликован в 2025. Он описывает современные подходы к обучению глубоких нейронных сетей для ранжирования, включая использование Embeddings и Attention Mechanisms. Учитывая фокус Google на семантическом поиске и кластеризации интентов, методы, позволяющие моделям лучше обобщать сигналы релевантности между похожими запросами, крайне актуальны для улучшения качества поиска.
Патент имеет высокое стратегическое значение для SEO (75/100). Хотя он описывает внутренние процессы обучения моделей Google, а не конкретные факторы ранжирования, он дает ключевое понимание того, как Google оценивает релевантность. Система учится не изолированно по каждому запросу, а в контексте семантически связанных запросов. Это подтверждает критическую важность построения тематического авторитета (Topical Authority) и широкого охвата кластера запросов, а не оптимизации под отдельные ключевые слова.
Cosine Similarity).Correlation Score между запросами.Correlation Score между списками, из которых взяты элементы.Claim 1 (Независимый пункт): Описывает базовый метод Cross-List Learning to Rank.
Correlation Score между Запросом 1 и Запросом 2.Weighted Pairwise Ranking Loss) на основе Представления 1, Представления 2, их меток и Correlation Score.Ядром изобретения является использование пар из разных списков для обучения ранжированию, при условии, что функция потерь учитывает корреляцию между запросами, породившими эти списки.
Claim 2 (Зависимый от 1): Детализирует метод вычисления Correlation Score.
Query Embedding для Запроса 1 и Запроса 2.Correlation Score вычисляется путем оценки метрики схожести (например, косинусного сходства) между этими эмбеддингами.Claim 10 (Зависимый от 1): Описывает альтернативный метод вычисления Correlation Score.
Attention Network), которая обучена предсказывать эмбеддинг одного запроса на основе других запросов в батче. Веса внимания используются как Correlation Score.Claims 4, 5, 6 (Зависимые от 1): Определяют механизмы взвешивания в функции потерь.
Correlation Score превышает порог.Correlation Score (∣Cqr∣).Claim 11 (Независимый пункт): Обобщает метод XLR для корреляции по любым признакам (General Cross Feature Ranking).
Процесс аналогичен Claim 1, но Correlation Score определяется не между запросами, а на основе схожести других атрибутов, связанных с обучающими примерами (например, схожесть жанров контента, идентификаторов издателей/авторов или характеристик пользователей).
Это значительно расширяет область применения метода, позволяя обучать модели ранжирования на основе корреляций в различных срезах данных (Data Slices).
Claim 16 (Независимый пункт): Описывает применение XLR в контексте дистилляции (Distillation).
Процесс аналогичен Claim 1, но в нем участвуют две модели: Teacher и Student. Функция потерь рассчитывается на основе разницы между предсказаниями обеих моделей для перекрестной пары, взвешенной на Correlation Score. Цель — обучить Student модель воспроизводить логику ранжирования Teacher модели.
Этот патент описывает инфраструктуру машинного обучения, используемую для тренировки моделей ранжирования. Он не применяется в реальном времени при обработке запроса пользователя, а используется офлайн для улучшения базовых моделей.
RANKING – Ранжирование (Обучение моделей)
Основное применение патента находится на этапе разработки и обучения моделей, которые затем будут использоваться на стадиях L1, L2 и L3 ранжирования.
Cross-List Learning to Rank интегрируется в процесс тренировки моделей (например, глубоких нейронных сетей, используемых для ранжирования). Он изменяет способ расчета функции потерь (Ranking Loss), используемой для обновления весов модели.Входные данные:
Выходные данные:
Патент влияет на общую способность модели ранжирования правильно упорядочивать результаты поиска.
Correlation Score ниже порога, пара может быть исключена из расчета потерь (Claim 5).Описание процесса обучения модели с использованием Cross-List Learning to Rank (на примере попарного подхода).
Query Embeddings (Eq и Er). (Опционально, если используется метод из Claim 2).Correlation Score (Cqr) между Списком Q и Списком R. Например, используя косинусное сходство между Eq и Er: Cqr=(Eq,Er)∥Eq∥⋅∥Er∥Патент фокусируется на процессе обучения и предполагает наличие стандартных входных данных для задач ранжирования:
Intermediate Representations и Query Embeddings.General Cross Feature Ranking (Claim 11) используются атрибуты обучающих примеров для расчета корреляции. Упоминаются: Патент описывает несколько ключевых метрик и расчетов:
1. Correlation Score (Cqr):
Embeddings) запросов или других атрибутов (Уравнение 6). Также упоминается использование ковариации или весов механизма внимания.2. Модификаторы функции потерь:
3. Функции потерь (Ranking Losses):
Патент адаптирует стандартные LTR функции потерь для XLR. Пример (Уравнение 7) адаптации попарной потери для бинарных меток:
Lxlr−ranking=∑q=1Q∑r=1Q∑yiq=1iq=1Nq∑yjr=0jr=1NrI(∣Cqr∣≥τ)⋅μ(q,r)⋅∣Cqr∣⋅yiq,jrlog[1+exp(sjr−siq)]
Эта формула суммирует потери по всем парам (i, j) из всех комбинаций списков (q, r), где у элемента i метка 1 (релевантен), а у элемента j метка 0 (нерелевантен), применяя три модификатора к стандартной логистической потере.
Correlation Score. Система активно вычисляет схожесть между запросами (используя Embeddings или Attention), чтобы определить, какие данные можно совместно использовать для обучения. Это подчеркивает глубокое понимание семантики запросов системой.General Cross Feature Ranking (Claim 11), важно четко определять ключевые атрибуты контента (категории, темы) и авторов/издателей (E-E-A-T). Если Google использует корреляцию по атрибутам издателя, сильные и последовательные сигналы авторитетности могут способствовать лучшему обучению модели на вашем контенте.Query Embeddings, необходимо создавать контент, который четко соответствует семантическому пространству целевых запросов. Используйте естественный язык, релевантные сущности и контекстуально связанные термины.Патент подтверждает стратегию Google на переход от ранжирования на основе ключевых слов к ранжированию на основе тем и семантического соответствия. Cross-List Learning to Rank — это конкретный технический механизм, который позволяет реализовать эту стратегию на уровне обучения базовых моделей. Для SEO это означает, что долгосрочный успех зависит от способности сайта демонстрировать глубокую экспертизу и релевантность в рамках целых тематических областей. Модели Google становятся более устойчивыми к незначительным вариациям запросов и лучше распознают истинное качество и релевантность контента.
Сценарий: Оптимизация кластера запросов по выбору смартфона
Сайт А фокусируется только на запросе "лучший смартфон 2025". Сайт Б создает хаб, покрывающий кластер: "лучший смартфон 2025", "сравнение флагманских смартфонов 2025", "топ камерофонов 2025".
Correlation Score (они семантически близки).Что такое Cross-List Learning to Rank (XLR) простыми словами?
Это метод обучения поисковых алгоритмов. Представьте, что Google учится ранжировать, сравнивая два документа. Раньше он сравнивал их, только если оба документа появились в ответ на один и тот же запрос. С XLR Google может сравнить документ, найденный по запросу "как починить кран", с документом, найденным по похожему запросу "ремонт смесителя", чтобы понять, какой из них лучше в целом.
Как Google определяет, что два запроса похожи для использования XLR?
Патент предлагает несколько методов для расчета Correlation Score. Основной метод – это сравнение векторных представлений (Query Embeddings) запросов с помощью метрик типа косинусного сходства (cosine similarity). Эти эмбеддинги могут генерироваться самой моделью ранжирования. Другой продвинутый метод – использование механизма внимания (Attention Mechanism), который определяет, насколько один запрос может предсказать другой.
Влияет ли этот патент на ранжирование в реальном времени?
Нет, напрямую не влияет. Патент описывает офлайн-процесс обучения моделей ранжирования. XLR используется для того, чтобы сделать базовые модели (например, те, что используются в ядре алгоритма Google) более точными и эффективными. Улучшение этих моделей, в свою очередь, приводит к изменению результатов ранжирования в продакшене.
Какое главное последствие этого патента для SEO-стратегии?
Главное последствие – это дальнейшее усиление важности тематического авторитета (Topical Authority) и кластерного подхода к контенту. Поскольку модель обучается путем сравнения результатов из похожих запросов, сайт, который последовательно предоставляет качественные ответы во всем семантическом кластере, получает преимущество. Оптимизация под изолированные ключевые слова теряет эффективность.
Что такое General Cross Feature Ranking (Claim 11) и как это связано с E-E-A-T?
Это расширение метода XLR, позволяющее рассчитывать корреляцию не только по схожести запросов, но и по другим атрибутам, например, по издателю (Publisher) или автору. Если Google применяет этот метод, он может обучать модель, сравнивая результаты от одного и того же авторитетного источника для разных запросов. Это напрямую связано с E-E-A-T, так как позволяет системе лучше понять паттерны ранжирования, связанные с авторитетными издателями.
Стоит ли теперь пытаться оптимизировать одну страницу под максимально возможное количество синонимичных запросов?
Не обязательно. Важнее обеспечить качественное покрытие всего кластера интентов, возможно, с помощью нескольких страниц, связанных в единую тематическую структуру (хаб). XLR помогает Google лучше понимать релевантность на уровне темы. Если одна страница наилучшим образом отвечает на несколько синонимов – отлично. Но если интенты немного различаются, лучше создать отдельные страницы и убедиться, что все они высокого качества.
Как XLR влияет на long-tail запросы?
XLR может улучшить ранжирование по long-tail запросам. Если длинный хвост семантически близок к более общему запросу (имеет высокий Correlation Score), модель может использовать знания, полученные при обучении на данных общего запроса, для улучшения ранжирования по long-tail запросу. Это повышает способность модели обобщать сигналы релевантности.
Что такое дистилляция (Distillation) в контексте этого патента?
Дистилляция – это процесс обучения маленькой и быстрой модели (Student) воспроизводить результаты большой и сложной модели (Teacher). Патент предлагает применять XLR во время дистилляции (Claim 16). Это означает, что Student модель учится у Teacher модели, сравнивая их предсказания для пар документов из разных, но похожих запросов. Это позволяет создавать эффективные продакшн-модели, сохраняя сложное понимание релевантности.
Использует ли система какие-либо пороги для активации XLR?
Да, патент описывает использование порога (τ) (Claim 5). Если Correlation Score между двумя запросами ниже этого порога (т.е. запросы недостаточно похожи), то пары документов из этих списков могут быть исключены из расчета функции потерь XLR. Это защищает модель от обучения на ложных корреляциях.
Как этот патент связан с BERT или MUM?
BERT и MUM – это модели для понимания языка, которые используются для генерации качественных векторных представлений (Embeddings) текстов и запросов. Механизм XLR использует эти Query Embeddings для расчета Correlation Score. Таким образом, прогресс в моделях типа MUM напрямую улучшает способность системы определять семантическую близость запросов, что делает механизм XLR более эффективным.

Персонализация
Поведенческие сигналы
SERP

Семантика и интент

Поведенческие сигналы
SERP

Поведенческие сигналы

Семантика и интент
SERP

Персонализация
Семантика и интент
Поведенческие сигналы

Семантика и интент
Поведенческие сигналы

Персонализация
Поведенческие сигналы
Local SEO

Персонализация
Семантика и интент
Мультимедиа

Local SEO
Поведенческие сигналы
Свежесть контента

Семантика и интент
Ссылки
Knowledge Graph

Поведенческие сигналы
Мультимедиа
SERP

Семантика и интент
Персонализация
SERP

Поведенческие сигналы
Персонализация
Семантика и интент

Local SEO
Семантика и интент
Поведенческие сигналы
