Close Menu
    Telegram
    SEO HARDCORE
    • Разборы патентов
      • Патенты Google
      • Патенты Яндекс
    • Скоро
      SEO инструменты
    • Скоро
      SEO аналитика
    SEO HARDCORE
    Разборы патентов • Патенты Яндекс

    Как Яндекс улучшает обучение CatBoost с помощью Kernel Gradient Boosting (KGB) для точной оценки неопределенности в ранжировании

    METHODS AND SYSTEMS FOR TRAINING A DECISION-TREE BASED MACHINE LEARNING ALGORITHM (MLA) (Методы и системы для обучения алгоритма машинного обучения (MLA) на основе деревьев решений)
    • US20240232710A1
    • Yandex LLC
    • 2024-07-11
    • 2023-12-22
    2024 Метрики качества поиска Обучение моделей Патенты Яндекс Холодный старт

    Яндекс патентует метод Kernel Gradient Boosting (KGB) для обучения моделей на основе деревьев решений (например, CatBoost). Он сочетает случайные деревья (для оценки неопределенности) и стандартный градиентный бустинг (для точности). Это позволяет моделям Яндекса быстрее обучаться и лучше определять, когда они не уверены в прогнозе, особенно для новых или нетипичных данных (Out-of-Domain).

    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх

    Описание

    Какую задачу решает

    Патент решает фундаментальные проблемы, связанные с обучением алгоритмов градиентного бустинга на основе деревьев решений (например, CatBoost), особенно при оптимизации сложных, невыпуклых функций потерь (таких как NDCG или PFound).

    1. Медленная сходимость и локальные минимумы: Существующие продвинутые методы, такие как Stochastic Gradient Langevin Boosting (SGLB), могут медленно сходиться к оптимальному решению или застревать в локальных минимумах (saddle points) при невыпуклой оптимизации.
    2. Ложная уверенность (Overconfidence) и обработка Out-of-Domain (OOD) данных: Традиционные модели часто демонстрируют излишнюю уверенность в прогнозах для данных, которые не встречались во время обучения. Если объект попадает в лист дерева, который был пуст во время обучения (нулевое значение), модель выдает уверенный прогноз, что некорректно.

    Что запатентовано

    Запатентован метод обучения MLA на основе деревьев решений, названный Kernel Gradient Boosting (KGB). Суть изобретения заключается в гибридном подходе к построению ансамбля деревьев. Модель состоит из двух частей:

    1. Первая суб-модель (Kernel/Prior Trees): Деревья со случайной структурой и инъекцией шума во все листья (включая пустые) для моделирования априорной неопределенности.
    2. Вторая суб-модель (GBDT Trees): Деревья, построенные с использованием стандартного градиентного бустинга для обеспечения точности прогнозов на известных данных.

    Как это работает

    Метод KGB работает в два этапа. На первом этапе (SamplePrior) генерируется Первая суб-модель. Ключевая особенность — использование функции, индуцирующей шум (noise-inducing function), которая гарантирует, что ВСЕ листья имеют ненулевые значения (non-null leaf values). Дисперсия шума максимальна для пустых листьев, что сигнализирует о высокой неопределенности для данных, попадающих в эти области.

    На втором этапе обучается стандартная GBDT модель (Вторая суб-модель) на остатках (residuals) первой модели, фокусируясь на минимизации ошибок предсказания.

    Финальная модель KGB объединяет обе части, обеспечивая баланс между точностью на известных данных и адекватной оценкой неопределенности для неизвестных (Out-of-Domain) данных.

    Актуальность для SEO

    Высокая. Патент подан ключевыми разработчиками CatBoost (библиотека упоминается в тексте патента) и описывает передовые методы оптимизации градиентного бустинга. Улучшение базовых алгоритмов машинного обучения, повышение скорости их обучения и точности оценки неопределенности критически важны для качества и эффективности поисковых систем.

    Важность для SEO

    Влияние на SEO умеренное (4/10). Это инфраструктурный патент, описывающий математический аппарат обучения CatBoost, а не конкретные факторы ранжирования. Он не дает прямых тактических SEO-рекомендаций. Однако он имеет стратегическое значение, так как показывает, что основная ранжирующая модель Яндекса становится более совершенной в оптимизации сложных метрик качества и лучше способна оценивать собственную неопределенность, что приводит к более стабильному и робастному ранжированию в целом.

    Детальный разбор

    Термины и определения

    CatBoost
    Библиотека градиентного бустинга, разработанная Яндексом и лежащая в основе ранжирования. Упоминается в патенте как возможная реализация метода KGB.
    Decision-tree based MLA
    Алгоритм машинного обучения на основе деревьев решений. Модель, состоящая из ансамбля решающих деревьев (например, GBDT).
    GBDT (Gradient Boosting Decision Trees)
    Техника машинного обучения, которая итеративно строит ансамбль деревьев, где каждое новое дерево пытается исправить ошибки предыдущих.
    Kernel Gradient Boosting (KGB)
    Предложенный в патенте метод обучения. Гибридный подход, комбинирующий случайные деревья (Kernel/Prior Trees) и GBDT деревья.
    Loss Function (Функция потерь)
    Метрика, которую модель минимизирует в процессе обучения. Патент упоминает как выпуклые (Convex, например, Squared Error Loss), так и невыпуклые (Non-Convex, например, NDCG, PFound).
    Noise-inducing function (Функция, индуцирующая шум)
    Функция, используемая на первом этапе KGB для генерации значений в листьях случайных деревьев. Гарантирует ненулевые значения (non-null leaf values) во всех листьях.
    Out-of-Domain (OOD) data (Данные вне домена)
    Данные (например, запросы или документы), которые значительно отличаются от данных, на которых модель обучалась. KGB улучшает детектирование OOD.
    PFound
    Одна из ключевых внутренних метрик Яндекса для оценки качества ранжирования. Упомянута как пример невыпуклой функции потерь, которую оптимизирует KGB.
    SGLB (Stochastic Gradient Langevin Boosting)
    Существующий метод градиентного бустинга, который вводит шум в процесс обучения для улучшения глобальной сходимости при невыпуклой оптимизации. KGB предлагается как улучшение по сравнению с SGLB.
    Uncertainty Estimation (Оценка неопределенности)
    Способность модели не только делать предсказание, но и оценивать степень уверенности в этом предсказании.

    Ключевые утверждения (Анализ Claims)

    Патент защищает специфический двухэтапный процесс обучения деревьев решений, направленный на решение проблемы оценки неопределенности.

    Claim 1 (Независимый пункт): Описывает метод обучения MLA, включающий две ключевые итерации (фазы).

    Первая итерация (Генерация Первого Дерева / Kernel Tree):

    1. Генерируется структура первого дерева. Идентифицируются листья с объектами (Первый листовой узел) и пустые листья (Второй листовой узел).
    2. Критически важно: Генерируются значения для обоих типов листьев с использованием Первой функции, индуцирующей шум (First noise-inducing function).
    3. Результат: Значения обоих листьев являются ненулевыми (non-null).

    Техническая интерпретация: Это описание построения «Kernel Tree». Главная инновация — принудительное присвоение ненулевого значения пустому листу с помощью функции шума. Это механизм для моделирования неопределенности в областях пространства признаков, не покрытых обучающими данными.

    Вторая итерация (Генерация Второго Дерева / GBDT Tree):

    1. Генерируется структура второго дерева.
    2. Значения листьев генерируются на основе оценки значения градиента функции потерь (estimated gradient value of a loss function).

    Техническая интерпретация: Это стандартный шаг градиентного бустинга (GBDT), направленный на минимизацию ошибок и обеспечение точности.

    Итог: Запатентован гибридный подход (KGB), где модель состоит как из деревьев, моделирующих неопределенность (Первое дерево), так и из деревьев, обученных для достижения точности (Второе дерево).

    Claim 3 (Зависимый): Уточняет, что структура Первого дерева является равномерно распределенной (uniformly-distributed), т.е. выбрана случайно.

    Где и как применяется

    Этот патент относится к инфраструктуре машинного обучения и применяется на этапе ОФФЛАЙН ОБУЧЕНИЯ моделей, которые затем используются в слое RANKING.

    Офлайн-процессы (Обучение модели ранжирования)

    Метод KGB используется для создания самой ранжирующей модели (например, формулы на базе CatBoost), которая затем применяется на этапах L2/L3 ранжирования. Он не взаимодействует напрямую с CRAWLING, INDEXING или QUERY PROCESSING во время выполнения запроса.

    • Входные данные: Обучающий набор данных (Training Dataset), состоящий из объектов (например, пар запрос-документ с признаками) и целевых значений (например, оценок релевантности или данных о кликах).
    • Выходные данные: Обученная модель MLA (KGB модель), состоящая из ансамбля деревьев решений.

    RANKING – Ранжирование (Применение обученной модели)

    Обученная модель применяется для оценки релевантности. Когда в модель поступает объект, сильно отличающийся от обучающих данных (Out-of-Domain), та часть модели, которая состоит из Первых деревьев (Kernel Trees), вносит значительный вклад в финальный прогноз, сигнализируя о неуверенности системы.

    На что влияет

    Метод является агностичным к домену и влияет на общие характеристики обученной модели:

    • Качество оптимизации: Модель лучше оптимизирует сложные невыпуклые метрики ранжирования (упомянуты NDCG и PFound).
    • Скорость обучения: Заявлено, что KGB обеспечивает более быструю сходимость по сравнению с SGLB.
    • Оценка неопределенности и OOD Detection: Основное влияние — улучшение способности модели распознавать данные вне домена и избегать ложной уверенности в прогнозах для таких данных.

    Когда применяется

    Алгоритм применяется исключительно во время фазы обучения (Training Phase) моделей на основе деревьев решений (например, при обновлении формул ранжирования CatBoost).

    Пошаговый алгоритм

    Описание процесса обучения модели Kernel Gradient Boosting (KGB).

    Этап 1: Генерация Первой Суб-модели (SamplePrior / Kernel Trees)

    1. Система инициализирует первую суб-модель. Выполняется заданное количество итераций (T0).
    2. Генерация структуры: Генерируется случайная (uniformly-distributed) структура дерева. Сплиты могут базироваться на признаках данных, но пороги выбираются случайно.
    3. Распределение объектов: Обучающие объекты пропускаются через дерево, подсчитывается количество объектов (Nj) в каждом листе (j).
    4. Генерация значений листьев (Ключевой шаг): Для каждого листа генерируется значение с помощью Noise-Inducing Function. Значения генерируются из нормального распределения со средним 0 и дисперсией, рассчитанной по формуле: $ D_j = N / max(N_j, 1) $, где N – общее количество обучающих объектов. Это гарантирует ненулевые значения даже для пустых листьев.
    5. Дерево добавляется к первой суб-модели.

    Этап 2: Генерация Второй Суб-модели (GBDT Trees)

    1. Расчет остатков: Вычисляются остатки (residuals) между истинными целевыми значениями и предсказаниями первой суб-модели.
    2. Система обучает стандартную модель GBDT (Вторая суб-модель) на этих остатках, используя стандартные итерации градиентного бустинга (расчет градиентов функции потерь и построение деревьев).

    Этап 3: Финализация модели

    1. Финальная модель KGB формируется как комбинация (сумма) Первой и Второй суб-моделей и сохраняется.

    Какие данные и как использует

    Патент фокусируется на методологии обучения и не детализирует конкретные признаки (факторы ранжирования).

    Данные на входе

    • Training Objects (Обучающие объекты): Объекты (например, пары запрос-документ), представленные в виде векторов признаков.
    • Target Values / Labels (Целевые значения / Метки): Значения, которые модель должна научиться предсказывать (например, оценки асессоров).

    Важное различие: Первая Суб-модель использует только признаки объектов (для структуры и подсчета в листьях), но не использует целевые значения. Вторая Суб-модель использует и признаки, и целевые значения.

    Какие метрики используются и как они считаются

    • Noise-Inducing Function (для Первых деревьев): Ключевая формула патента (Equation 1) для расчета значений листьев (θ) с использованием нормального распределения (Гаусса):

      $${ \theta_{\tau}\sim\mathcal{N}(O_{\mathbb{R}^{L_{v_{T}}}},diag(\frac{N}{max\{N_{v_{\tau}}^{(j)},1\}}:j\in\{1,…,L_{v_{T}}\})) }$$

      Где N – общее количество объектов, $N_{v_{\tau}}^{(j)}$ – количество объектов в листе j. Дисперсия шума обратно пропорциональна заполненности листа. Пустые листья получают максимальную дисперсию (N), что соответствует максимальной неопределенности.

    • Loss Functions (Функции потерь, для Вторых деревьев): Используются для расчета градиентов. Упомянуты как выпуклые (например, Squared error loss), так и невыпуклые (NDCG, PFound).
    • Метрики оценки качества (в фоне): Для сравнения KGB с другими методами в патенте используются RMSE (для точности), PRR и AUC-ROC (для оценки OOD detection).

    Выводы

    1. KGB как эволюция CatBoost: Патент демонстрирует развитие основного алгоритма машинного обучения Яндекса. Kernel Gradient Boosting (KGB) представлен как улучшение по сравнению с предыдущими методами (SGB, SGLB), обеспечивающее более быструю сходимость и лучшее качество оптимизации сложных метрик ранжирования.
    2. Фокус на оценке неопределенности (Uncertainty Estimation): Ключевая цель патента — научить модель адекватно оценивать свою уверенность в прогнозах. Это критически важно для работы с данными, которые не встречались при обучении (Out-of-Domain).
    3. Механизм ненулевых листьев: Основная техническая инновация — использование случайных деревьев с принудительным заполнением всех листьев (даже пустых) значениями, сгенерированными с помощью noise-inducing function (Формула 1). Это позволяет избежать ложной уверенности модели на незнакомых данных.
    4. Гибридная структура модели: Модель KGB явно разделена на две части: одна отвечает за моделирование неопределенности (Kernel Trees), другая — за точность предсказаний на известных данных (GBDT Trees).
    5. Инфраструктурный характер: Патент имеет чисто технический характер и описывает внутренние процессы обучения моделей Яндекса (CatBoost) без прямых рекомендаций для SEO.

    Практика

    ВАЖНО: Патент является чисто инфраструктурным и описывает внутренние математические процессы обучения ML-моделей Яндекса (CatBoost). Он не дает практических рекомендаций для SEO-специалистов относительно оптимизации сайтов.

    Best practices (это мы делаем)

    Патент не предлагает конкретных SEO-тактик. Он подтверждает, что Яндекс использует чрезвычайно сложные модели для ранжирования. Это косвенно подчеркивает важность обеспечения высокого качества сайта по всем направлениям (контент, техническое состояние, поведенческие сигналы), так как сложные и робастные модели лучше способны оценить это качество.

    Worst practices (это делать не надо)

    • Манипулятивные тактики и эксплуатация уязвимостей (Overfitting): Модели с улучшенным обнаружением Out-of-Domain (OOD) данных потенциально более устойчивы к контенту или тактикам, которые сильно выбиваются из распределения высококачественных примеров в обучающей выборке. Попытки обмануть алгоритм с помощью нетипичных подходов могут привести к тому, что система классифицирует контент как OOD и выразит высокую неопределенность (что может привести к понижению в ранге).

    Стратегическое значение

    Стратегическое значение патента заключается в понимании приоритетов Яндекса в области ML. Акцент на OOD detection и оценке неопределенности говорит о стремлении сделать поиск более надежным и устойчивым к неожиданностям и манипуляциям.

    Патент также подтверждает, что Яндекс продолжает совершенствовать ядро своего ML для оптимизации сложных метрик качества поиска (PFound, NDCG). Это подтверждает долгосрочный тренд на усложнение алгоритмов и необходимость фокусироваться на фундаментальном качестве ресурса и удовлетворении пользователя.

    Практические примеры

    Практических примеров применения данного патента в SEO-работе нет, так как он описывает математику обучения моделей, а не применение этих моделей для ранжирования контента.

    Вопросы и ответы

    Что такое Kernel Gradient Boosting (KGB), описанный в патенте?

    KGB — это продвинутый метод обучения моделей на основе деревьев решений (например, CatBoost). Он комбинирует два типа деревьев: первый набор строится случайно и используется для оценки неопределенности прогнозов (особенно для данных, которых не было в обучении), а второй набор строится стандартным методом градиентного бустинга для обеспечения максимальной точности на известных данных.

    Является ли KGB новым алгоритмом ранжирования?

    Нет, KGB — это не алгоритм ранжирования, а метод ОБУЧЕНИЯ алгоритмов ранжирования. Основная ранжирующая модель Яндекса, CatBoost, может быть обучена с использованием метода KGB. В патенте указано, что KGB может быть реализован как часть библиотеки CatBoost. KGB делает итоговую модель более точной и надежной.

    Какую главную проблему решает этот патент?

    Основная проблема — это ложная уверенность (overconfidence) моделей машинного обучения при работе с данными, которые они не видели во время обучения (Out-of-Domain data). Стандартные методы часто интерпретируют попадание в пустой лист дерева как высокую уверенность в прогнозе. KGB решает это, принудительно присваивая ненулевые значения (шум) всем листьям, что позволяет корректно оценить неопределенность.

    Раскрывает ли этот патент какие-либо факторы ранжирования?

    Нет. Патент полностью посвящен математическим методам оптимизации процесса обучения (Training Phase). Он не содержит никакой информации о том, какие признаки (контент, ссылки, поведение пользователей) используются моделями для ранжирования сайтов.

    Что такое Out-of-Domain (OOD) detection и почему это важно для поиска?

    OOD detection — это способность модели распознавать, что входные данные сильно отличаются от того, на чем она обучалась. Это важно для поиска, чтобы система могла адекватно реагировать на новые события, тренды или новые виды спама. Модель должна понимать, когда она «не знает» ответа, а не выдавать уверенный, но неверный прогноз.

    В чем разница между KGB и предыдущими методами, такими как SGLB?

    SGLB (Stochastic Gradient Langevin Boosting) также использует инъекцию шума, но в основном для избежания локальных минимумов при обучении сложных (невыпуклых) функций. KGB использует шум более специфическим образом (в первой суб-модели) для моделирования неопределенности и, как утверждается в патенте, обеспечивает более быструю сходимость и лучшую точность по сравнению с SGLB.

    Что такое PFound, упомянутый в патенте?

    PFound — это одна из ключевых внутренних метрик Яндекса для оценки качества ранжирования. Она оценивает вероятность того, что пользователь найдет ответ на свой запрос. Патент упоминает PFound как пример невыпуклой функции потерь, которую метод KGB может эффективно оптимизировать.

    Как улучшенная оценка неопределенности может повлиять на выдачу?

    Если система сталкивается с совершенно новым запросом или необычным контентом (Out-of-Domain), модель, обученная KGB, будет менее уверена в своих прогнозах релевантности. Это может сделать систему более устойчивой к новым видам спама или манипуляций. Вместо того чтобы ошибочно высоко ранжировать такой контент, система может пометить его как «неопределенный».

    Что означает сложная формула (Equation 1), приведенная в патенте?

    Эта формула описывает, как генерируются значения для листьев в Первой суб-модели (Kernel Trees). Она использует нормальное распределение (Гаусса) для генерации шума. Ключевой момент — расчет дисперсии: она обратно пропорциональна количеству объектов в листе (N/max(Nj, 1)). Если лист пуст, дисперсия максимальна. Это математическое выражение неопределенности.

    Каков главный вывод для SEO-специалиста из этого патента?

    Главный вывод — ранжирование Яндекса опирается на чрезвычайно сложную и постоянно совершенствующуюся ML-инфраструктуру (CatBoost). Поскольку базовые модели становятся более точными, робастными и устойчивыми к аномалиям (OOD data), стратегический фокус на качестве контента, авторитетности ресурса и положительном пользовательском опыте становится еще более важным.

    Навигация
    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх
    Telegram
    © 2025 SEO HARDCORE

    Type above and press Enter to search. Press Esc to cancel.