Google использует механизм для устранения позиционной предвзятости (Position Bias) при обучении моделей ранжирования (Learning to Rank). Система анализирует, на какой позиции находился кликнутый результат, и присваивает этому клику вес важности. Клики по нижним позициям получают больший вес, чем клики по ТОП-1. Это позволяет модели учиться определять истинную релевантность, а не просто копировать существующий порядок выдачи.
Описание
Какую задачу решает
Патент решает фундаментальную проблему при обучении моделей ранжирования (Learning to Rank, LTR) на основе данных о кликах пользователей — позиционную предвзятость (Position Bias, также называемую в патенте Selection Bias). Пользователи склонны чаще кликать на результаты, расположенные выше, независимо от их фактической релевантности. Если модель обучается на необработанных данных о кликах, она ошибочно усваивает эту предвзятость, а не истинную релевантность. Изобретение направлено на «очистку» обучающих данных от этого уклона. Это особенно критично в системах с разреженными данными о кликах (например, в персональном поиске).
Что запатентовано
Запатентована система обучения Ranking Machine Learning Model, которая корректирует влияние позиционной предвзятости. Для каждого обучающего примера (клика пользователя) система рассчитывает Selection Bias Value (вероятность клика из-за позиции) и Importance Value (вес важности этого клика для обучения). Importance Value обратно пропорционален Selection Bias Value. Этот вес используется для корректировки функции потерь (Loss Function) во время обучения модели (метод, известный как Inverse Propensity Weighting).
Как это работает
Система работает в два основных этапа:
- Оценка предвзятости (Bias Estimation): С помощью Experiment Data (например, путем случайного перемешивания результатов в выдаче — randomly permuted) система измеряет, насколько часто пользователи кликают на каждую позицию исключительно из-за ее расположения (Selection Bias Value).
- Взвешенное обучение (Weighted Training): При обучении модели для каждого клика вычисляется Importance Value (например, 1/Bias). Клики на нижних позициях получают больший вес, а клики на верхних — меньший. Модель обучается минимизировать скорректированную функцию потерь (Adjusted Loss), которая учитывает этот вес важности.
Актуальность для SEO
Критически высокая. Использование поведенческих сигналов (кликов) для обучения моделей ранжирования является стандартом. Корректировка позиционной предвзятости (Debiasing) — обязательное условие для обеспечения точности этих моделей. Описанные методы являются актуальными и стандартными техниками в области Information Retrieval и Machine Learning.
Важность для SEO
Патент имеет высокое стратегическое значение (8/10) для понимания того, как Google интерпретирует поведенческие факторы. Он описывает не алгоритм ранжирования в реальном времени, а процесс обучения моделей. Ключевое понимание: не все клики одинаково полезны как обучающий сигнал. Клики, полученные на более низких позициях («глубокие клики»), имеют значительно больший вес (Importance Value) в качестве сигнала релевантности, чем клики на первой позиции.
Детальный разбор
Термины и определения
- Adjusted Loss (Скорректированная потеря)
- Итоговое значение функции потерь для обучающего примера, полученное путем умножения стандартной потери (Loss) на вес важности (Importance Value). Модель обучается минимизировать сумму этих скорректированных потерь.
- Experiment Data (Экспериментальные данные)
- Данные о кликах, собранные в контролируемых условиях, где позиции результатов были «случайно перемешаны» (randomly permuted) перед показом пользователям. Это позволяет изолировать влияние позиции от влияния релевантности.
- Importance Value (Вес важности)
- Метрика, определяющая, насколько важен данный обучающий пример (клик) для обучения модели. Она обратно пропорциональна Selection Bias Value.
- Loss Function (Функция потерь)
- Функция, которая измеряет ошибку модели ранжирования на обучающем примере (например, pair-wise loss function или list-wise loss function).
- Ranking Machine Learning Model (Модель машинного обучения для ранжирования)
- Модель (например, нейронная сеть или GBDT), обученная генерировать оценку ранжирования (Ranking Score) для документа на основе его признаков и признаков запроса.
- Selection Bias Value (Значение предвзятости выбора / Позиционная предвзятость)
- Метрика, представляющая степень, в которой позиция результата повлияла на его выбор пользователем. Высокое значение означает, что на эту позицию часто кликают независимо от контента.
- Training Data (Обучающие данные)
- Набор примеров, используемых для обучения модели. Каждый пример включает запрос, список результатов, кликнутый результат и его позицию.
Ключевые утверждения (Анализ Claims)
Claim 1 (Независимый пункт): Описывает основной метод обучения модели ранжирования с коррекцией предвзятости.
- Система получает Training Data (запрос, результаты, выбранный результат) и Position Data (позиция выбранного результата).
- Для каждого примера определяется Selection Bias Value (насколько позиция повлияла на выбор).
- Для каждого примера определяется Importance Value, который обратно пропорционален Selection Bias Value.
- Происходит обучение модели, которое включает для каждого примера:
- Определение потери (Loss) на основе оценок модели и факта выбора результата.
- Генерация Adjusted Loss путем корректировки Loss с использованием Importance Value. Примеры с более высоким весом важности сильнее влияют на обучение. Указана формула скорректированной потери , где – Importance Value, а – Loss.
- Обучение модели на основе Adjusted Loss.
Claim 2 (Зависимый от 1): Уточняет источник данных для определения предвзятости.
Система получает Experiment Data, где позиции результатов были «случайно перемешаны» (randomly permuted) перед показом пользователям. Это ключевое условие для объективной оценки влияния позиции.
Claim 3 и 4 (Зависимые): Описывают метод расчета глобальной позиционной предвзятости.
- На основе Experiment Data для каждой позиции подсчитывается количество выборов (кликов).
- Для каждой позиции определяется Position Bias Value на основе этого количества.
- Этот Position Bias Value используется как Selection Bias Value для обучающих примеров.
Claim 5 и 6 (Зависимые): Описывают метод расчета предвзятости для разных классов запросов (Query Class).
- Запросы в Experiment Data и Training Data классифицируются.
- Для каждого класса запросов и для каждой позиции рассчитывается Class-Specific Position Bias Value.
- Эта специфичная для класса предвзятость используется как Selection Bias Value.
Claim 7, 8 и 9 (Зависимые): Описывают метод предсказания предвзятости для конкретного запроса с помощью отдельной модели.
- Система обучает классификатор (Classifier), который принимает вектор признаков запроса (Feature Vector) и предсказывает Query-Specific Position Bias Value для каждой позиции.
- Для обучающего примера система использует этот обученный классификатор для генерации предвзятости, специфичной для данного запроса.
- Этот предсказанный уклон используется как Selection Bias Value.
Где и как применяется
Важно понимать, что этот патент описывает офлайн-процесс обучения моделей ранжирования, а не алгоритм, работающий в реальном времени при обработке запроса.
Инфраструктура Обучения (Training Pipeline)
Основное применение патента. Training Engine использует данные, собранные из взаимодействия пользователей с поисковой выдачей (логи кликов), и Experiment Data для обучения Ranking Machine Learning Model. На этом этапе рассчитываются Selection Bias Values, Importance Values и происходит оптимизация параметров модели с использованием Adjusted Loss.
RANKING – Ранжирование
Обученная модель (Ranking Model) затем развертывается в продакшн и используется Ranking Engine на этапах ранжирования (вероятно, L2 или L3) для генерации Ranking Scores. Сама модель уже не выполняет коррекцию предвзятости в реальном времени; она применяет то, что выучила на скорректированных данных.
Входные данные:
- Training Data: Запросы, списки результатов, кликнутые документы, позиции кликнутых документов.
- Experiment Data: Данные о кликах на рандомизированных выдачах.
- (Опционально) Feature Vectors для запросов (используются при расчете Query-Specific Bias).
Выходные данные:
- Обученная Ranking Machine Learning Model, параметры которой оптимизированы для предсказания релевантности с учетом коррекции позиционной предвзятости.
На что влияет
- Все типы контента и запросов: Механизм влияет на обучение базовых моделей ранжирования и, следовательно, затрагивает все типы запросов и контента, для которых доступна статистика кликов и используются LTR-модели.
- Персональный поиск и разреженные данные: В описании патента особо отмечается, что этот метод эффективен в системах, где данные о кликах сильно разрежены (highly sparse), например, в персональном поиске (поиск по почте, документам пользователя), так как он позволяет более эффективно использовать имеющиеся данные.
Когда применяется
- Условия применения: Алгоритм применяется во время циклов обучения или переобучения основных моделей ранжирования (например, моделей на основе глубокого обучения).
- Частота применения: Офлайн, периодически, по мере накопления новых обучающих данных и проведения экспериментов для калибровки предвзятости.
Пошаговый алгоритм
Процесс состоит из двух основных фаз: измерение предвзятости и обучение модели.
Фаза А: Измерение позиционной предвзятости (Офлайн-эксперименты)
- Сбор экспериментальных данных: Система показывает пользователям результаты поиска, где порядок документов случайно перемешан (randomly permuted). Собираются данные о том, на какие позиции кликают пользователи.
- Анализ данных: Для каждой позиции подсчитывается общее количество кликов.
- Расчет Position Bias Value: Определяется значение предвзятости для каждой позиции на основе частоты кликов. Это может быть сделано тремя способами:
- Глобально (Global): Одно значение предвзятости для каждой позиции для всех запросов.
- По классам (Class-Specific): Значения предвзятости рассчитываются отдельно для разных классов запросов.
- По запросам (Query-Specific): Обучается отдельный классификатор для предсказания предвзятости на основе признаков конкретного запроса.
Фаза Б: Обучение модели ранжирования (Офлайн-обучение)
- Получение обучающего примера: Система берет один пример из Training Data (запрос, результаты, клик).
- Идентификация позиции: Определяется позиция, на которой находился кликнутый результат.
- Определение Selection Bias Value: Извлекается соответствующее значение предвзятости (рассчитанное в Фазе А) для этой позиции (и, возможно, для этого класса запроса или конкретного запроса).
- Расчет Importance Value: Вычисляется вес важности, обратно пропорциональный Selection Bias Value. .
- Расчет стандартной потери (Loss): Текущая версия модели ранжирования оценивает результаты, и вычисляется стандартная функция потерь (например, pairwise loss, ).
- Расчет скорректированной потери (Adjusted Loss): Стандартная потеря умножается на Importance Value. .
- Обновление модели: Параметры модели обновляются (например, с помощью градиентного спуска или MART) для минимизации суммы Adjusted Loss по всем обучающим примерам.
Какие данные и как использует
Данные на входе
- Поведенческие факторы: Критически важные данные. Используются данные о выбранных результатах (result document that was selected by a user) и позиции этих результатов (position data). Эти данные собираются как в стандартных условиях (Training Data), так и в экспериментальных (Experiment Data с рандомизацией).
- Контекстные / Пользовательские факторы (Опционально): При расчете Query-Specific Position Bias могут использоваться признаки запроса (query features) или пользователя. Примеры, упомянутые в патенте: количество слов в запросе, класс запроса, предпочитаемый язык пользователя (preferred language of the user).
Какие метрики используются и как они считаются
- Selection Bias Value (Position Bias Value): Рассчитывается на основе частоты кликов на определенную позицию в рандомизированных экспериментах.
- Importance Value (w): Вес важности. Рассчитывается как значение, обратно пропорциональное Selection Bias Value.
- Loss Function (l(Q,f)): Стандартная функция потерь для LTR. Патент упоминает pair-wise loss, например: , где – кликнутый документ, – некликнутый.
- Adjusted Loss (L(f)): Скорректированная потеря. Формула: .
- Query-Specific Position Bias Value (): В одном из вариантов реализации используется логистическая регрессия для предсказания предвзятости: , где – вектор признаков запроса Q.
Выводы
- Google активно борется с позиционной предвзятостью (Position Bias): При использовании данных о кликах для обучения моделей ранжирования (LTR) Google применяет сложные механизмы для нейтрализации влияния позиции на вероятность клика.
- Дифференцированный вес кликов: Ключевой вывод — не все клики имеют одинаковый вес как обучающий сигнал. Система использует Importance Value, который обратно пропорционален позиционной предвзятости (Inverse Propensity Weighting).
- Клики на низких позициях важнее для обучения: Клик по результату на позиции, которая редко просматривается (низкий Selection Bias Value), получает высокий Importance Value. Это интерпретируется как сильный сигнал релевантности, так как пользователь приложил усилия, чтобы найти этот результат.
- Клики на ТОП-1 имеют меньший вес: Клик по первой позиции (высокий Selection Bias Value) получает низкий Importance Value, так как он мог быть вызван просто расположением, а не высокой релевантностью.
- Измерение предвзятости через рандомизацию: Google использует контролируемые эксперименты (Experiment Data), включая случайное перемешивание результатов, чтобы точно измерить чистый эффект позиционной предвзятости.
- Предвзятость не является константой: Патент описывает, что предвзятость может различаться для разных классов запросов (Class-Specific) или даже для конкретных запросов (Query-Specific) в зависимости от их признаков.
Практика
Best practices (это мы делаем)
- Оптимизация сниппетов для привлечения кликов на любых позициях: Поскольку клики на более низких позициях имеют больший вес (Importance Value), критически важно иметь привлекательные и релевантные Title и Description. Если ваш сайт находится на 5-й позиции, но получает CTR выше ожидаемого для этой позиции, это посылает очень сильный положительный сигнал моделям ранжирования во время их обучения.
- Фокус на истинной релевантности и удовлетворении интента: Создавайте контент, который настолько релевантен и полезен, что пользователь готов прокрутить выдачу вниз, чтобы найти его. Это генерирует высокоценные обучающие примеры для Google.
- Анализ CTR в контексте позиции: При анализе данных из GSC следует оценивать CTR не в вакууме, а в сравнении со средними показателями для занимаемой позиции. Превышение ожидаемого CTR на низких позициях — индикатор высокой релевантности контента.
Worst practices (это делать не надо)
- Манипуляции с CTR на высоких позициях: Попытки искусственно накрутить CTR, особенно на позициях ТОП-1-3, будут иметь ограниченный эффект в качестве обучающего сигнала, так как система присвоит этим кликам низкий Importance Value из-за высокого Selection Bias Value.
- Кликбейт и игнорирование интента: Использование кликбейтных заголовков для получения кликов может сработать краткосрочно, но если контент нерелевантен, это приведет к негативным поведенческим сигналам (которые учитываются другими системами) и не поможет в долгосрочном обучении моделей релевантности для вашего сайта.
- Предположение, что высокий CTR на P1 гарантирует релевантность: Нельзя считать, что если страница на 1 месте и имеет высокий CTR, то она автоматически считается Google максимально релевантной. Значительная часть этих кликов будет дисконтирована при обучении моделей.
Стратегическое значение
Патент подтверждает, что Google рассматривает CTR и поведенческие данные как важный, но «шумный» источник информации для обучения моделей ранжирования и активно применяет методы для его очистки (Debiasing). Наивное понимание «CTR — это фактор ранжирования» неверно. Стратегия SEO должна фокусироваться на демонстрации высокой релевантности, которая проявляется в способности привлекать внимание пользователя и удовлетворять его интент независимо от начальной позиции в выдаче.
Практические примеры
Сценарий: Интерпретация кликов для обучения модели
Предположим, Google провел эксперимент (Фаза А) и определил следующие глобальные значения позиционной предвзятости (Selection Bias Value):
- Позиция 1 (P1): Bias = 0.6 (очень высокая предвзятость)
- Позиция 5 (P5): Bias = 0.1 (низкая предвзятость)
Теперь система обучает модель (Фаза Б) и рассматривает два клика с одинаковой базовой потерей (Loss = 1.0):
Клик А (на P1):
- Importance Value (1/Bias) = 1 / 0.6 ≈ 1.67
- Adjusted Loss = 1.0 * 1.67 = 1.67
Клик Б (на P5):
- Importance Value (1/Bias) = 1 / 0.1 = 10.0
- Adjusted Loss = 1.0 * 10.0 = 10.0
Результат: Клик Б (на P5) оказывает значительно большее влияние (Adjusted Loss = 10.0) на обновление параметров модели ранжирования, чем Клик А (Adjusted Loss = 1.67). Модель получит гораздо более сильный стимул повысить рейтинг документа, получившего клик на P5.
Вопросы и ответы
Является ли CTR фактором ранжирования согласно этому патенту?
Не напрямую. Патент показывает, что CTR используется как источник обучающих данных (Training Data) для моделей ранжирования (Learning to Rank). Однако эти данные не используются в сыром виде. Они проходят сложный процесс обработки для устранения позиционной предвзятости (Position Bias). Важен не сам факт клика, а его вес (Importance Value) после коррекции.
Правда ли, что клик на 5-й позиции лучше, чем клик на 1-й?
С точки зрения влияния на обучение модели ранжирования — да. Поскольку 1-я позиция имеет высокую позиционную предвзятость (Selection Bias Value), клик на ней получает низкий вес важности (Importance Value). Клик на 5-й позиции преодолевает значительную предвзятость, поэтому он получает высокий вес важности и сильнее влияет на параметры модели. Это более сильный сигнал истинной релевантности.
Как Google измеряет позиционную предвзятость (Position Bias)?
Патент четко указывает на использование Experiment Data. Это данные, собранные в ходе экспериментов, где результаты поиска были «случайно перемешаны» (randomly permuted). Анализируя клики на рандомизированной выдаче, Google может изолировать влияние позиции от влияния релевантности и точно измерить предвзятость.
Как я могу использовать эти знания для улучшения SEO?
Ключевая тактика — оптимизация сниппетов (Title, Description, микроразметка) для повышения CTR, особенно если вы находитесь не в ТОП-3. Если вы сможете «заработать» клики на более низких позициях, эти клики получат очень высокий Importance Value и послужат сильным сигналом релевантности для обучающихся моделей ранжирования.
Является ли позиционная предвзятость одинаковой для всех запросов?
Нет. Патент описывает три варианта расчета предвзятости: глобальный (одинаковый для всех), специфичный для класса запросов (Class-Specific) и специфичный для конкретного запроса (Query-Specific). Например, предвзятость для навигационных запросов (сильный фокус на ТОП-1) может отличаться от предвзятости для информационных запросов.
Влияет ли этот механизм на ранжирование в реальном времени?
Нет. Этот патент описывает офлайн-процесс обучения модели ранжирования. Система корректирует обучающие данные, а затем обучает модель. В реальном времени используется уже обученная модель, которая применяет выученные закономерности для генерации Ranking Scores.
Делает ли этот патент накрутку поведенческих факторов бесполезной?
Он значительно снижает эффективность накрутки, особенно на высоких позициях (ТОП-1-3), так как вес этих кликов искусственно занижается системой (низкий Importance Value). Накрутка на низких позициях теоретически может дать больший вес, но такие действия, скорее всего, будут отфильтрованы системами обнаружения спама и аномалий как неестественное поведение.
Что такое корректировка функции потерь (Adjusted Loss)?
Это процесс взвешивания ошибок модели во время обучения. Вместо того чтобы считать все ошибки одинаково важными, система умножает стандартную ошибку (Loss) на Importance Value. Ошибки, связанные с кликами на низких позициях, получают больший вес, заставляя модель уделять им больше внимания при оптимизации.
Применяется ли этот метод только для стандартного веб-поиска?
Метод является универсальным для обучения LTR-моделей. Хотя он применим к стандартному поиску, в патенте особо подчеркивается его эффективность в сценариях с разреженными данными о кликах (sparse click data), таких как персональный поиск (поиск по email, документам пользователя).
Что такое Inverse Propensity Weighting (IPW) в контексте этого патента?
Хотя термин IPW не используется в патенте, описанный механизм является его реализацией. Это статистический метод для уменьшения смещения в данных. В данном случае Selection Bias Value — это «склонность» (propensity) к клику из-за позиции, а Importance Value — это обратный вес (inverse weight). IPW позволяет скорректировать обучающие данные, чтобы они лучше отражали истинную релевантность.