Close Menu
    Telegram
    SEO HARDCORE
    • Разборы патентов
      • Патенты Google
      • Патенты Яндекс
    • Скоро
      SEO инструменты
    • Скоро
      SEO аналитика
    SEO HARDCORE
    Разборы патентов • Патенты Яндекс

    Как Яндекс обучает модели CatBoost (например, Proxima), предотвращая переобучение с помощью упорядоченных наборов данных

    Способ и сервер для определения обучающего набора для обучения алгоритма машинного обучения (MLA) (Method and server for determining a training set for machine learning algorithm (MLA) training)
    • RU2817726C2
    • Yandex LLC
    • 2024-04-19
    • 2020-11-19
    2024 Антиспам Обучение моделей Патенты Яндекс Ранжирование

    Патент Яндекса, описывающий фундаментальную технику для обучения надежных моделей машинного обучения (в частности, CatBoost) путем предотвращения переобучения. Метод включает последовательную обработку обучающих данных и вычисление признаков (текстовых или векторных) с использованием только «прошлых» примеров в последовательности. Это гарантирует лучшую обобщающую способность моделей в реальных условиях.

    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх

    Описание

    Какую задачу решает

    Патент решает фундаментальную проблему в машинном обучении, известную как «переобучение» (overfitting) или «чрезмерная подгонка». Переобучение происходит, когда модель «запоминает» обучающие данные вместо того, чтобы изучать общие тенденции. Это приводит к высоким ошибкам на новых данных, которые модель не видела во время обучения. Патент направлен на повышение надежности моделей прогнозирования за счет снижения риска и влияния переобучения, особенно в сложных моделях.

    Что запатентовано

    Запатентован метод генерации обучающих признаков, который снижает переобучение. Суть изобретения заключается в строгом упорядочивании обучающих примеров и генерации новых признаков (текстовых или основанных на векторных представлениях) для конкретного примера, используя информацию только из предыдущих примеров в этой последовательности. Этот подход предотвращает «утечку целевой переменной» (target leakage) и симулирует реальные условия работы модели.

    Как это работает

    Система сначала упорядочивает весь набор обучающих данных (например, случайно или по времени). Затем она итеративно проходит по этой последовательности. Для генерации признака для текущего примера (X) система анализирует данные (текст или эмбеддинги) и истинные классы только тех примеров, которые предшествуют X в последовательности, полностью игнорируя последующие примеры. Например, вычисляется статистическая близость (TF-IDF, BM25) или векторное расстояние (косинусное, евклидово) между X и кластерами предыдущих примеров. Полученные признаки используются для обучения основного алгоритма машинного обучения, например, CatBoost.

    Актуальность для SEO

    Высокая. Учитывая, что ведущий автор патента (Анна Дорогуш) является руководителем разработки CatBoost, описанный механизм является фундаментальной частью того, как CatBoost обрабатывает категориальные и текстовые признаки для предотвращения переобучения. Поскольку CatBoost используется повсеместно в инфраструктуре Яндекса (включая ранжирование и классификаторы качества, такие как Proxima), этот метод крайне актуален.

    Важность для SEO

    Влияние на SEO низкое (3/10). Это инфраструктурный патент по методологии машинного обучения. Он не описывает алгоритм ранжирования, конкретные SEO-факторы или способы манипуляции выдачей. Он описывает, как именно Яндекс обучает свои модели (такие как формулы ранжирования или Proxima), которые затем используют эти факторы. Патент дает понимание сложности ML-инфраструктуры Яндекса, но не предлагает прямых практических действий для SEO-специалистов.

    Детальный разбор

    Термины и определения

    Патент описывает внутренние процессы обучения моделей Яндекс без прямых рекомендаций для SEO.

    CatBoost
    Библиотека градиентного бустинга, разработанная Яндексом. Упоминается в патенте как возможная реализация описанной технологии. Является ключевым элементом ранжирования и классификации в Яндексе.
    MLA (Machine Learning Algorithm / Алгоритм машинного обучения)
    Общий термин для модели прогнозирования или классификации. В контексте патента часто подразумевается модель на основе деревьев принятия решений (Decision Tree).
    Overfitting (Переобучение / Чрезмерная подгонка)
    Ситуация, когда модель показывает низкие ошибки на обучающих данных, но высокие ошибки на новых данных, так как она «запомнила» обучающий набор вместо обобщения тенденций.
    Training Example (Обучающий пример)
    Единица данных для обучения модели. Включает характерные для объекта данные (например, текст или векторное представление) и указание истинного класса (метку).
    True Class (Истинный класс / Метка)
    Фактическая категория объекта в обучающих данных (Ground Truth), например, «спам»/«не спам» или оценка асессора.
    Ordered Sequence (Упорядоченная последовательность)
    Ключевой элемент метода. Множество обучающих примеров, упорядоченных в определенную последовательность (случайно или по времени) перед генерацией признаков.
    Previous/Subsequent Examples (Предыдущие/Последующие обучающие примеры)
    Примеры, которые находятся до (предыдущие) или после (последующие) текущего примера в упорядоченной последовательности. Признаки генерируются только на основе предыдущих примеров.
    Text Feature (Текстовый признак)
    Признак, сгенерированный на основе текстовых данных примера и статистики предыдущих примеров. Может использовать TF-IDF, BM25, Naive Bayes.
    Embedding-based Feature (Основанный на векторном представлении признак)
    Признак, сгенерированный на основе векторных представлений (эмбеддингов) примера и предыдущих примеров. Использует метрики расстояния (косинусное, евклидово) до кластеров или соседей.
    Similarity Feature (Признак подобия)
    Признак, указывающий подобие между текущим обучающим примером и предыдущими обучающими примерами определенного класса, часто основанный на расстоянии в многомерном пространстве.

    Ключевые утверждения (Анализ Claims)

    Патент фокусируется на методологии генерации признаков во время обучения для борьбы с переобучением.

    Claim 1 (Независимый пункт) — Генерация текстовых признаков:

    1. Сервер получает множество обучающих примеров (текст + истинный класс).
    2. Сервер упорядочивает эти примеры в последовательность.
    3. Для определенного примера (X) сервер генерирует текстовый признак.
    4. Критически важно: Признак генерируется на основе текста X, а также текста и истинных классов только предыдущих обучающих примеров в последовательности. Последующие примеры игнорируются.
    5. Сервер определяет обучающий набор, включающий этот текстовый признак и метку.

    Claim 23 (Независимый пункт) — Генерация признаков на основе эмбеддингов:

    Описывает тот же процесс, что и Claim 1, но применяемый к векторным представлениям (эмбеддингам) вместо сырого текста.

    1. Сервер получает примеры (векторное представление + истинный класс).
    2. Примеры упорядочиваются.
    3. Для примера (X) генерируется основанный на векторном представлении признак.
    4. Признак генерируется на основе вектора X и векторов/истинных классов только предыдущих примеров.

    Claim 51 (Независимый пункт) — Генерация признаков подобия через кластеризацию:

    Описывает конкретный механизм генерации признаков с использованием кластеризации.

    1. Примеры упорядочиваются.
    2. Сервер кластеризует предыдущие обучающие примеры в многомерном пространстве, группируя их по истинным классам.
    3. Для текущего примера (X) генерируется признак подобия.
    4. Этот признак основан на расстоянии между X и кластером предыдущих примеров определенного класса в этом пространстве.

    Где и как применяется

    Изобретение не применяется напрямую в фазах живого поиска (Crawling, Indexing, Ranking). Оно применяется на этапе Офлайн-обучения и построения моделей (Offline Training / Model Building), которые затем используются в продакшене.

    Слой Качества и Метрик (QUALITY & GOVERNANCE LAYER) — Обучение моделей

    • Метод используется для обучения классификаторов качества, таких как Proxima и Anti-Quality. Эти модели (обычно CatBoost) обучаются на оценках асессоров (истинные классы). Описанный в патенте метод позволяет этим моделям надежно использовать текстовые и векторные признаки без переобучения на обучающей выборке.

    Слой Ранжирования (RANKING LAYER) — Обучение формул

    • Основная формула ранжирования (CatBoost/YATI) также обучается офлайн. Этот метод может применяться при обучении формулы для надежной обработки признаков, связанных с текстом запроса и документа.

    Взаимодействие и Данные:

    • Компоненты: Взаимодействует с инфраструктурой обучения ML, в частности с реализацией библиотеки CatBoost.
    • Входные данные: Набор обучающих данных, включающий сырой текст и/или векторные представления (эмбеддинги), а также истинные классы (метки).
    • Выходные данные: Обученный набор данных с новыми, устойчивыми к переобучению признаками. В конечном итоге — обученная модель классификации (MLA).

    На что влияет

    • Область применения: Патент указывает, что метод применим к классификации любых цифровых объектов:
      • Результатов поиска (документов).
      • Элементов систем рекомендаций контента.
      • Сообщений электронной почты (например, классификация спама).
      • Электронной коммерции (например, классификация пользователей).
    • Типы данных: Влияет на то, как модели Яндекса обрабатывают и интерпретируют текстовые данные и их векторные представления (эмбеддинги).

    Когда применяется

    • Условия работы: Применяется исключительно во время фазы обучения (Training Phase) модели машинного обучения.
    • Триггеры активации: Активируется, когда модель обучается с использованием признаков, требующих статистического анализа набора данных (например, текстовых, векторных или категориальных признаков), где существует риск утечки целевой переменной.

    Пошаговый алгоритм

    Процесс обучения модели (Офлайн)

    1. Получение данных: Сервер получает множество обучающих примеров. Каждый пример содержит данные (текст и/или векторные представления) и истинный класс (метку).
    2. Упорядочивание: Сервер упорядочивает примеры в последовательность. Порядок может быть случайным или основанным на характеристиках объекта (например, по времени).
    3. Итеративная генерация признаков: Система проходит по последовательности. Для каждого текущего обучающего примера (X):
      1. Идентификация контекста: Определяются все «Предыдущие примеры» (те, что стоят перед X в последовательности).
      2. Кластеризация (Опционально): Предыдущие примеры могут быть сгруппированы (кластеризованы) на основе их истинных классов.
      3. Вычисление статистики: Вычисляются статистические или геометрические характеристики на основе Предыдущих примеров (например, центры кластеров).
      4. Генерация признака для X: Генерируется новый признак для X путем сравнения данных X с вычисленной статистикой Предыдущих примеров. Например:
        • Текстовый признак: Расчет BM25 или TF-IDF текста X относительно корпуса текстов предыдущих примеров определенного класса.
        • Векторный признак: Расчет расстояния от вектора X до центра кластера предыдущих примеров определенного класса.
      5. Исключение будущего: Данные из последующих примеров (после X) строго игнорируются на этом шаге.
    4. Определение обучающего набора: Формируется финальный набор данных, включающий сгенерированные признаки и метки.
    5. Обучение модели: MLA (например, CatBoost) обучается на этом наборе данных.

    Процесс применения модели (Онлайн / Фаза использования)

    1. Получение нового объекта: Система получает новый объект для классификации.
    2. Генерация признаков: Признаки для нового объекта генерируются с использованием статистики, рассчитанной на основе всего обучающего набора (так как весь обучающий набор теперь находится в «прошлом»).
    3. Классификация: Обученная модель использует эти признаки для определения прогнозируемого класса.

    Какие данные и как использует

    Данные на входе

    • Контентные факторы (Текстовые данные): Тексты, связанные с цифровыми объектами (документами, письмами, элементами рекомендаций). Используются для генерации текстовых признаков и векторных представлений.
    • Мультимедиа факторы (Данные изображения): Упоминается возможность генерирования векторных представлений на основе данных изображения.
    • Системные данные (Векторные представления / Эмбеддинги): Численные векторы, представляющие объекты. Могут быть сгенерированы из текста или изображений.
    • Данные разметки (Истинные классы / Метки): Эталонные значения (Ground Truth), используемые для обучения и кластеризации предыдущих примеров.

    Какие метрики используются и как они считаются

    Система вычисляет различные метрики для генерации новых признаков, сравнивая текущий пример с предыдущими.

    Для текстовых признаков:

    • TF-IDF (Частота слова — обратная частота документа): Статистическая мера для оценки важности слова в контексте корпуса (в данном случае, корпуса предыдущих примеров).
    • BM25 (Best Matching 25): Функция ранжирования, оценивающая релевантность документов запросу. Здесь используется для оценки релевантности текста текущего примера относительно текстов предыдущих примеров.
    • Наивный Байес (Naive Bayes): Вероятностный классификатор, используемый для оценки вероятности принадлежности к классу на основе текста.

    Для признаков на основе векторных представлений:

    • Косинусное расстояние (Cosine Distance): Мера схожести между двумя векторами. Используется для сравнения вектора текущего примера со средним вектором (центроидом) предыдущих примеров определенного класса.
    • Евклидово расстояние (Euclidean Distance / L2): Геометрическое расстояние между точками в многомерном пространстве. Используется для сравнения с центроидами или ближайшими соседями.

    Методы анализа и ML:

    • Генерация эмбеддингов: Упомянуты алгоритмы word2vec, fastText и GloVe. (На практике могут использоваться и более современные трансформерные модели).
    • Кластеризация: Группировка предыдущих примеров по классам для вычисления центров кластеров (средних векторных представлений).
    • KNN (Ближайшие соседи): Определение расстояния до К ближайших соседей из определенного класса среди предыдущих примеров.
    • Градиентный бустинг (CatBoost): Основной алгоритм обучения, использующий сгенерированные признаки.

    Выводы

    1. Это патент по методологии ML, а не по SEO: Патент описывает фундаментальный метод обучения моделей машинного обучения, направленный на борьбу с переобучением (overfitting), в частности, через предотвращение утечки целевой переменной (target leakage). Он не содержит прямых рекомендаций для SEO.
    2. Фундамент CatBoost: Описанный метод упорядочивания данных и последовательной генерации признаков является ключевой особенностью библиотеки CatBoost, которая обеспечивает ее высокую производительность и надежность.
    3. Повсеместное применение в Яндексе: Поскольку CatBoost используется для большинства задач ранжирования и классификации в Яндексе (включая Proxima), этот патент описывает, как именно обучаются эти критически важные системы.
    4. Важность разнообразных представлений данных: Патент подчеркивает, что Яндекс активно использует как классические статистические текстовые признаки (TF-IDF, BM25), так и современные векторные представления (эмбеддинги) внутри своих моделей классификации.
    5. Надежность моделей Яндекса: Модели, обученные с использованием этого метода (например, Proxima), являются более робастными и лучше обобщают данные. Это означает, что они менее подвержены случайным флуктуациям и их сложнее обмануть поверхностными манипуляциями, которые могли бы сработать на переобученных моделях.

    Практика

    Best practices (это мы делаем)

    Патент скорее инфраструктурный и не дает прямых практических выводов для SEO. Однако он подтверждает важность фундаментальных аспектов качества контента, так как именно эти сигналы обрабатываются робастными моделями Яндекса.

    • Обеспечение классической текстовой релевантности: Патент явно упоминает использование TF-IDF и BM25 для генерации текстовых признаков внутри моделей. Это подтверждает, что обеспечение четкой тематической релевантности, использование ключевых слов и QBST фраз в правильном контексте остаются критически важными, так как они являются входом для этих статистических функций.
    • Работа над семантической глубиной (для эмбеддингов): Патент также подчеркивает использование векторных представлений (эмбеддингов) и метрик расстояния (косинусное, евклидово). Это указывает на необходимость создания семантически богатого контента, который точно позиционируется в векторном пространстве. Работайте над Topical Authority и полным раскрытием интента.

    Worst practices (это делать не надо)

    Патент не направлен против конкретных SEO-тактик, он направлен на улучшение качества моделей Яндекса в целом. Информация о худших практиках в патенте отсутствует.

    Стратегическое значение

    Стратегическое значение патента заключается в понимании надежности и сложности ML-инфраструктуры Яндекса. Описанный метод является основой CatBoost. Это означает, что классификаторы качества (например, Proxima) и алгоритмы ранжирования, использующие CatBoost, обучены методом, который минимизирует переобучение и максимизирует обобщающую способность. Для SEO-стратегии это сигнал о том, что попытки найти «лазейки» или обмануть систему поверхностными изменениями с меньшей вероятностью будут успешными против таких робастных моделей. Долгосрочный успех требует фокусировки на реальном качестве и фундаментальной релевантности.

    Практические примеры

    Практических примеров для применения в SEO нет, так как патент описывает внутренний процесс обучения моделей. Ниже приведен пример того, как Яндекс может использовать этот метод для обучения классификатора.

    Сценарий: Обучение классификатора качества документов (например, Proxima)

    Яндекс хочет обучить модель определять, является ли документ высококачественным (Класс 1) или низкокачественным (Класс 0) на основе его текста.

    1. Сбор данных: Собирается 1000 документов, размеченных асессорами (Истинный класс).
    2. Упорядочивание: Эти 1000 документов упорядочиваются в случайную последовательность.
    3. Генерация признаков (Итерация):
      • Пример №1: Предыдущих примеров нет. Текстовые признаки не генерируются (или равны 0).
      • Пример №50: Система анализирует предыдущие 49 примеров. Она группирует их по классам (например, 25 из Класса 1, 24 из Класса 0). Затем она вычисляет BM25 текста Примера №50 относительно корпуса текстов Класса 1 и корпуса Класса 0. Эти два значения BM25 становятся новыми текстовыми признаками для Примера №50.
      • Пример №900: Система анализирует предыдущие 899 примеров. Она вычисляет BM25 относительно больших корпусов предыдущих документов Класса 1 и Класса 0.
    4. Обучение: Модель CatBoost обучается на этих 1000 примерах, используя сгенерированные признаки BM25.

    Результат: Благодаря тому, что признаки на каждом шаге вычислялись только по «прошлому» (предыдущим примерам), модель не переобучается и лучше работает в продакшене.

    Вопросы и ответы

    Что такое переобучение (overfitting) и почему Яндекс с ним борется этим патентом?

    Переобучение — это когда модель машинного обучения слишком хорошо подстраивается под обучающие данные, «запоминая» их вместе с шумом и случайными выбросами, вместо того чтобы выявлять общие закономерности. В результате модель отлично работает на тренировочных данных, но плохо справляется с новыми данными в реальных условиях. Яндекс борется с этим, потому что переобученные модели ранжирования или классификаторы качества (вроде Proxima) будут нестабильны и неэффективны в динамичной среде веба.

    Этот патент описывает работу алгоритма Proxima?

    Нет, этот патент не описывает логику работы Proxima (какие факторы она учитывает и как взвешивает). Однако Proxima — это модель, построенная на базе CatBoost. Данный патент описывает фундаментальный метод обучения, который используется в CatBoost для предотвращения переобучения. Таким образом, патент описывает как обучается Proxima, чтобы быть надежной, но не что именно она оценивает.

    Почему так важен порядок обучающих примеров в этом методе?

    Порядок критичен, так как он создает искусственное разделение на «прошлое» и «будущее». При генерации признаков для конкретного примера система использует статистику только из «прошлого» (предыдущих примеров в последовательности). Это имитирует работу модели в реальном времени, где будущее неизвестно, и предотвращает «утечку целевой переменной» (target leakage), что является основной причиной переобучения при обработке таких данных.

    Патент упоминает TF-IDF и BM25. Значит ли это, что Яндекс возвращается к старым алгоритмам?

    Не совсем. TF-IDF и BM25 упоминаются как методы генерации признаков внутри сложной модели машинного обучения (CatBoost), а не как основной алгоритм ранжирования. Современное ранжирование использует сотни или тысячи признаков. Классические статистические методы, такие как BM25, по-прежнему являются очень сильными сигналами текстовой релевантности и эффективно используются как входные данные для финальной ML-модели.

    Как используются эмбеддинги (векторные представления) в этом патенте?

    Эмбеддинги используются для генерации признаков подобия. Система кластеризует эмбеддинги предыдущих обучающих примеров по их классам. Затем для текущего примера вычисляется расстояние (косинусное или евклидово) от его эмбеддинга до центров этих кластеров. Эти расстояния становятся новыми признаками для обучения. Это позволяет модели понять, насколько семантически близок текущий объект к разным классам объектов, увиденных ранее.

    Могу ли я как SEO-специалист повлиять на процесс, описанный в патенте?

    Нет, вы не можете повлиять на этот процесс напрямую. Он полностью происходит на стороне Яндекса во время офлайн-обучения их моделей. Вы не контролируете ни состав обучающей выборки Яндекса, ни порядок, в котором они ее обрабатывают. Ваша задача — предоставлять качественный контент, который будет генерировать сильные сигналы (текстовые и векторные), используемые этими моделями.

    Упоминаются старые модели эмбеддингов (word2vec, GloVe). Использует ли Яндекс YATI/BERT?

    В патенте упоминаются word2vec, GloVe и fastText как примеры алгоритмов для генерации векторных представлений. Хотя современные трансформерные модели (YATI/BERT) явно не названы, они также генерируют эмбеддинги. Логично предположить, что Яндекс использует свои наиболее совершенные модели для генерации этих векторных представлений, которые затем обрабатываются методом, описанным в патенте.

    В чем разница между фазой обучения и фазой использования (применения) модели?

    В фазе обучения модель строится. Именно здесь применяется описанный метод упорядочивания и последовательной генерации признаков для предотвращения переобучения. В фазе использования (в продакшене) обученная модель применяется к новым данным для прогнозирования. В этой фазе признаки для нового объекта вычисляются на основе статистики всего обучающего набора, так как он весь уже находится в «прошлом».

    Каков главный вывод для Senior SEO из этого патента?

    Главный вывод — подтверждение высокой технической сложности и надежности инфраструктуры машинного обучения Яндекса (CatBoost). Модели ранжирования и классификаторы качества (Proxima) обучены с использованием передовых методов защиты от переобучения. Это означает, что система стабильна и устойчива к манипуляциям. Стратегия должна фокусироваться на фундаментальном качестве и релевантности, а не на поиске краткосрочных уязвимостей.

    Применим ли этот метод только к тексту?

    Нет. Хотя в патенте много внимания уделяется текстовым и основанным на тексте векторным признакам, метод также применим к другим типам данных. Упоминается возможность генерации векторных представлений из изображений. Также этот метод широко используется в CatBoost для обработки категориальных признаков (хотя это может выходить за рамки конкретных Claims этого патента).

    Навигация
    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх
    Telegram
    © 2025 SEO HARDCORE

    Type above and press Enter to search. Press Esc to cancel.