Close Menu
    Telegram
    SEO HARDCORE
    • Разборы патентов
      • Патенты Google
      • Патенты Яндекс
    • Скоро
      SEO инструменты
    • Скоро
      SEO аналитика
    SEO HARDCORE
    Разборы патентов • Патенты Яндекс

    Как Яндекс автоматически выбирает факторы ранжирования для ML-моделей, учитывая их синергию и устраняя избыточность

    METHOD AND SYSTEM OF SELECTING TRAINING FEATURES FOR A MACHINE LEARNING ALGORITHM (Метод и система выбора обучающих признаков для алгоритма машинного обучения)
    • US10839315B2
    • Yandex LLC
    • 2020-11-17
    • 2017-05-30
    2020 EEAT Обучение моделей Патенты Яндекс Ранжирование

    Яндекс патентует метод оптимизации выбора признаков (факторов) для обучения ML-моделей (например, формулы ранжирования). Система использует Условную Взаимную Информацию (CMI) для оценки взаимодействия факторов. Цель — выбрать набор, который совместно дает максимальную предсказательную силу (синергия) и при этом минимально дублирует информацию (избыточность), повышая эффективность модели.

    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх

    Описание

    Какую задачу решает

    Патент решает фундаментальную проблему машинного обучения — выбор оптимального подмножества признаков (Feature Selection) из огромного набора данных. Традиционные методы часто неэффективны при анализе сложных взаимодействий (синергии) между тремя и более признаками одновременно из-за высокой вычислительной сложности. Они также могут выбирать избыточные (redundant) признаки. Изобретение направлено на повышение точности ML-моделей и ускорение их обучения за счет фокусировки на наиболее информативных комбинациях данных.

    Что запатентовано

    Запатентован метод и система отбора признаков, основанные на итеративном вычислении Условной Взаимной Информации (Conditional Mutual Information, CMI). Суть изобретения заключается в алгоритме, который явно балансирует два критерия: Синергия (Synergy/Relevance) — насколько признаки полезны в комбинации, и Избыточность (Redundancy) — насколько признаки дублируют друг друга.

    Как это работает

    Система работает итеративно, используя «жадный» алгоритм. На каждом шаге оценивается каждый оставшийся признак-кандидат. Для него вычисляются Параметры Релевантности (оценка синергии) и Параметры Избыточности. На основе баланса этих параметров рассчитывается итоговый Балл Значимости Признака (Feature Significance Score). Признак с наивысшим баллом добавляется в финальный набор. Для возможности анализа сложных взаимодействий (высокого порядка) и снижения вычислительной сложности применяется механизм бинаризации признаков (Binarization).

    Актуальность для SEO

    Высокая. Эффективный отбор признаков критически важен для разработки и эксплуатации масштабных систем машинного обучения, таких как поисковые системы. Методы, основанные на теории информации (CMI) и учитывающие сложные взаимодействия, крайне актуальны для оптимизации моделей ранжирования и классификации.

    Важность для SEO

    Влияние на SEO умеренное (4/10). Это инфраструктурный патент, описывающий внутренние процессы оптимизации машинного обучения (ML Ops) в Яндексе, а не алгоритм ранжирования. Он не раскрывает, какие именно факторы используются в поиске, а лишь описывает математический метод их отбора. Однако он имеет важное стратегическое значение, так как подтверждает, что Яндекс системно ценит комбинации сигналов (синергию) и игнорирует дублирующиеся сигналы (избыточность).

    Детальный разбор

    Термины и определения

    Binarization (Бинаризация)
    Процесс преобразования признаков в бинарный формат (0 или 1). Используется для радикального снижения вычислительной сложности при расчете CMI для взаимодействий высокого порядка (когда учитывается много признаков одновременно).
    CMI (Conditional Mutual Information, Условная Взаимная Информация)
    Метрика из теории информации, которая измеряет, сколько дополнительной информации переменная G несет о переменной F, при условии, что мы уже знаем переменную H. Формула: $I(F;G|H)$. Ядро метода.
    Feature Selection (Выбор признаков)
    Процесс выбора подмножества наиболее релевантных и информативных признаков (факторов) для использования в построении модели ML.
    Feature Significance Score (Балл значимости признака)
    Итоговая оценка, рассчитываемая для признака на основе баланса его параметров релевантности (синергии) и избыточности.
    Interaction Parameter (t) (Параметр взаимодействия)
    Параметр, определяющий порядок взаимодействия (количество признаков), который учитывается при расчете CMI. Патент подчеркивает эффективность метода при t ≥ 3.
    MI (Mutual Information, Взаимная информация)
    Метрика, измеряющая степень зависимости между двумя переменными. Формула: $I(F,G)$.
    Redundancy Parameter (Параметр избыточности)
    Метрика, указывающая на уровень избыточности признака-кандидата. Избыточный признак несет мало новой информации по сравнению с уже выбранными.
    Relevance Parameter (Параметр релевантности/синергии)
    Метрика, указывающая на уровень синергии признака-кандидата с другими признаками. Синергия означает, что вместе признаки более информативны, чем по отдельности.
    Target Label (Целевая метка)
    Категория, класс или оценка (например, релевантность), которую ML-модель должна научиться предсказывать.

    Ключевые утверждения (Анализ Claims)

    Патент защищает специфический метод выбора признаков, основанный на итеративном вычислении и балансировке синергии и избыточности с помощью CMI.

    Claim 1 (Независимый пункт): Описывает основной процесс.

    1. Система извлекает признаки из обучающих данных с известной целевой меткой.
    2. Для признака-кандидата итеративно генерируется набор Параметров Релевантности (измерение синергии). Ключевой момент (явно указан в Claim 1): параметр релевантности определяется по формуле, которая максимизирует CMI (EQ. 4 в патенте):

      $$ h_j := \arg\max_{h} I(c;b|h_1,…,h_{j-1},h) $$

      Где $I$ – взаимная информация, $c$ – целевая метка, $b$ – признак-кандидат. Это поиск признака $h$, который максимизирует информацию о метке $c$ в комбинации с кандидатом $b$.

    3. Для того же кандидата итеративно генерируется набор Параметров Избыточности (измерение избыточности).
    4. Вычисляется Feature Significance Score на основе обоих наборов параметров.
    5. Выбирается признак с наивысшим баллом и добавляется в финальный набор.

    Claim 2 (Зависимый): Уточняет, что для выполнения процесса может использоваться Бинаризация признаков.

    Claim 6 (Зависимый от 1): Уточняет, как определяется параметр избыточности (EQ. 5 в патенте).

    Параметр избыточности определяется по формуле, которая минимизирует CMI:

    $$ g_j := \arg\min_{g} I(c;b,h_1,…,h_{j-1}|g_1,…,g_{j-1},g) $$

    Это означает поиск такого признака $g$, который при добавлении в условие максимально снижает информативность кандидата $b$ (т.е. информация в $b$ уже содержится в $g$ или других параметрах $g_i$).

    Claim 7 (Зависимый от 6): Уточняет, как определяется итоговый балл значимости (EQ. 6 в патенте).

    Feature Significance Score определяется по формуле:

    $$ J_t[f] := \max_{b \in B[f]} I(c;b,h_1,…,h_{t-1}|g_1,…,g_t) $$

    Эта формула максимизирует взаимную информацию между целевой меткой $c$ и комбинацией признака-кандидата $b$ с синергичными признаками ($h_i$), при условии (conditioned on) исключения информации, содержащейся в избыточных признаках ($g_i$).

    Где и как применяется

    Изобретение относится к этапу подготовки данных и обучения моделей машинного обучения. Это не алгоритм ранжирования в реальном времени.

    Офлайн-процессы и обучение ML (Model Training Infrastructure)

    Основное применение патента — офлайн-процессы разработки, валидации и оптимизации ML-моделей, которые затем могут использоваться на этапах RANKING (например, модели CatBoost на L2/L3) или для оценки качества (Proxima, Anti-Quality).

    1. Подготовка данных: Система получает большой набор потенциальных факторов ранжирования (признаков) и обучающую выборку с целевыми метками.
    2. Выбор признаков (Feature Selection): Алгоритм анализирует этот набор, используя вычисления CMI, чтобы определить, какие признаки наиболее информативны (синергичны) и наименее избыточны.
    3. Обучение модели: Сокращенный (оптимизированный) набор признаков затем используется для обучения основного алгоритма (например, CatBoost).

    Система принимает на вход признаки и метки, а возвращает оптимизированный набор признаков. Это ускоряет обучение и повышает качество итоговой модели за счет снижения переобучения и удаления шума.

    На что влияет

    Метод является универсальным и влияет на то, какие именно факторы ранжирования или классификации будут выбраны для использования в моделях Яндекса.

    • Внутренние модели Яндекса: Может использоваться для оптимизации моделей ранжирования, спам-фильтров, тематических классификаторов и моделей оценки качества.
    • Типы факторов: Метод не зависит от типа признаков. Он может анализировать контентные, ссылочные, поведенческие или любые другие факторы, представленные в числовом виде.

    Когда применяется

    • Условия применения: Алгоритм применяется в офлайн-режиме, на этапе разработки или переобучения моделей машинного обучения.
    • Триггеры активации: Необходимость обучить новый классификатор или оптимизировать существующий, особенно при работе с очень большим количеством исходных признаков (высокой размерностью данных).

    Пошаговый алгоритм

    Процесс выбора K наиболее значимых признаков из исходного набора F с учетом параметра взаимодействия t.

    1. Подготовка и Бинаризация (Опционально, но рекомендуется):
      • Получение исходного набора признаков F и целевых меток C.
      • Преобразование признаков в бинарный формат B[F] для снижения вычислительной сложности.
    2. Инициализация (Выбор первого признака) (Опционально):
      • Вычисление индивидуальной взаимной информации $I(c;b)$ для каждого признака $b$.
      • Выбор признака $f_{best}$, который максимизирует эту метрику (EQ. 3), и добавление его в набор выбранных признаков S.
    3. Итеративный выбор признаков (Основной цикл):

      Цикл повторяется, пока не будет выбрано K признаков.

      Для каждого оставшегося признака-кандидата f (и его бинарной версии b):

      1. Расчет параметров релевантности (Синергия):

        Итеративный поиск (t-1 раз) признаков $h_j$, которые максимизируют CMI с целевой меткой в комбинации с кандидатом $b$ (EQ. 4). Это находит признаки, которые хорошо работают вместе.

      2. Расчет параметров избыточности (Redundancy):

        Итеративный поиск (t раз) признаков $g_j$ (часто из уже выбранных), которые минимизируют CMI (EQ. 5). Это находит признаки, информация которых дублируется.

      3. Расчет балла значимости (Feature Significance Score):

        Вычисление итогового балла $J_t[f]$ для кандидата $f$, который балансирует синергию ($h_i$) и избыточность ($g_i$) (EQ. 6).

    4. Выбор наилучшего признака:
      • Сравнение баллов значимости $J_t[f]$ всех кандидатов.
      • Выбор признака с максимальным баллом и добавление его в финальный набор S.
    5. Завершение:

      Вывод финального набора выбранных признаков S.

    Какие данные и как использует

    Данные на входе

    Патент не специфицирует типы используемых признаков, так как метод является универсальным фильтром для ML. Он использует структурированные данные для обучения:

    • Признаки (Features): Любые извлеченные из документов данные в числовом виде (контентные, ссылочные, поведенческие, технические факторы и т.д.).
    • Целевые метки (Target Labels): Предварительно назначенные классы или оценки для обучающих документов (например, оценки асессоров о релевантности или качестве).

    Какие метрики используются и как они считаются

    Весь метод основан на теории информации и использует две ключевые метрики:

    1. Взаимная информация (Mutual Information, MI):

      Измеряет зависимость между двумя переменными (EQ. 1 в патенте).

      $$ I(f,g) = H(f) + H(g) — H(f,g) $$

      Где $H(f)$ — энтропия Шеннона.

    2. Условная Взаимная Информация (Conditional Mutual Information, CMI):

      Измеряет, сколько дополнительной информации о переменной f несет переменная g, если мы уже знаем переменную h (EQ. 2 в патенте).

      $$ I(f;g|h) = I(f;g,h) — I(f;h) $$

    На основе CMI вычисляются три рабочих параметра в алгоритме:

    • Relevance Parameter ($h_j$): Вычисляется через максимизацию CMI (\arg\max). Ищет синергию (EQ. 4).
    • Redundancy Parameter ($g_j$): Вычисляется через минимизацию CMI (\arg\min). Ищет избыточность (EQ. 5).
    • Feature Significance Score ($J_t$): Вычисляется как CMI между меткой и синергичными признаками, при условии (conditioned on) избыточных признаков (EQ. 6).

    Выводы

    1. Инфраструктурный фокус: Патент описывает сложный математический аппарат для оптимизации внутренних процессов машинного обучения (Feature Selection) в Яндексе, а не алгоритм ранжирования.
    2. Важность синергии (Synergy): Ключевая идея — поиск признаков, которые обеспечивают максимальный прирост информации именно в комбинации друг с другом, а не просто индивидуально сильных сигналов. Система не просто суммирует факторы, а ищет их оптимальные сочетания.
    3. Борьба с избыточностью (Redundancy): Система активно идентифицирует и исключает признаки, которые дублируют информацию. Если два фактора несут одну и ту же информацию, один из них, вероятно, будет исключен.
    4. Учет сложных взаимодействий: Метод разработан для анализа взаимодействий высокого порядка (учет более 3 признаков одновременно, t≥3). Это указывает на то, что модели ранжирования Яндекса учитывают сложные, нелинейные зависимости между факторами.
    5. Автоматизация и эффективность: Выбор факторов ранжирования автоматизирован и основан на строгих математических метриках (CMI). Использование бинаризации подчеркивает стремление к вычислительной эффективности.

    Практика

    Патент носит инфраструктурный характер и не дает прямых тактических рекомендаций для SEO. Однако он позволяет сформулировать важные стратегические инсайты, основанные на понимании принципов работы ML в Яндексе.

    Best practices (это мы делаем)

    • Комплексное развитие сайта (Синергия): Яндекс обладает инструментарием для анализа сложных взаимодействий между факторами. Это подтверждает необходимость комплексной работы над качеством сайта. Различные положительные сигналы (контент, техническое качество, поведенческие факторы, E-E-A-T) должны усиливать друг друга, создавая синергетический эффект. Комбинация факторов может дать эффект, значительно превышающий сумму частей.
    • Диверсификация сигналов качества (Борьба с избыточностью): Стремитесь предоставлять поисковой системе разнообразные, не коррелирующие между собой позитивные сигналы. Сайт, сильный по нескольким разным направлениям, более устойчив, чем сайт, сильный только в одном аспекте, так как его сигналы с меньшей вероятностью будут признаны избыточными (Redundant).

    Worst practices (это делать не надо)

    • Поиск «серебряной пули» и фокус на одном факторе: Не стоит надеяться на один изолированный фактор ранжирования. Система ищет синергию, и попытки манипулировать одним сигналом в отрыве от общего качества сайта будут неэффективны.
    • Дублирование сигналов и переоптимизация (Создание Избыточности): Попытки усилить сигнал путем его многократного повторения (например, чрезмерное насыщение текста ключевыми словами в разных зонах документа). Если эти сигналы несут одну и ту же информацию, система классифицирует их как избыточные, и они не принесут дополнительной пользы.
    • Манипуляция скоррелированными факторами: Попытка усилить сигнал за счет множества дублирующих действий (например, накрутка разных, но сильно коррелирующих поведенческих метрик). Система может посчитать эти сигналы избыточными, что приведет к эффекту убывающей отдачи или санкциям.

    Стратегическое значение

    Патент демонстрирует высокий уровень зрелости и математической проработки ML-технологий в Яндексе. Для SEO это означает, что система оценки качества и ранжирования постоянно совершенствуется, уходя от линейных моделей к сложным ансамблям, способным улавливать нелинейные зависимости и синергию. Долгосрочная SEO-стратегия должна быть направлена на комплексное развитие ресурса, создавая естественную синергию между качеством контента, пользовательским опытом и авторитетностью.

    Практические примеры

    Практических примеров для SEO нет, так как патент описывает внутренний процесс отбора признаков. Приведем концептуальные примеры того, как логика этого патента может применяться при выборе факторов ранжирования.

    Гипотетический сценарий 1: Синергия факторов

    • Фактор А: Наличие имени известного эксперта на странице (слабый сигнал E-E-A-T).
    • Фактор Б: Наличие исходящих ссылок на авторитетные источники/исследования (слабый сигнал E-E-A-T).
    • Синергия: Если модель Яндекса, используя этот метод, обнаружит, что комбинация (Фактор А + Фактор Б) значительно лучше предсказывает высокое качество контента (Target Label), чем каждый фактор по отдельности, она выберет эту комбинацию как сильную. SEO-специалисту нужно использовать эти элементы вместе для достижения максимального эффекта.

    Гипотетический сценарий 2: Избыточность факторов

    • Фактор X: Вхождение ключевого слова в Title.
    • Фактор Y: Вхождение ключевого слова в H1.
    • Избыточность: Если система обнаружит, что Фактор Y не несет практически никакой дополнительной информации о релевантности по сравнению с Фактором X (т.е. они почти всегда встречаются вместе и коррелируют одинаково), Фактор Y может быть исключен из модели как избыточный, или его вес будет минимальным.

    Вопросы и ответы

    Что такое «выбор признаков» (Feature Selection) и зачем он нужен Яндексу?

    Выбор признаков — это процесс отбора наиболее важных факторов из тысяч потенциальных для обучения модели машинного обучения, например, алгоритма ранжирования. Он нужен Яндексу для повышения точности ранжирования, ускорения работы моделей и предотвращения переобучения. Вместо того чтобы анализировать все подряд, система фокусируется только на самых информативных сигналах и их комбинациях.

    Патент говорит о синергии (Synergy). Что это значит для SEO?

    Синергия означает, что комбинация нескольких факторов дает больший эффект, чем сумма их эффектов по отдельности. Для SEO это подчеркивает важность комплексного подхода. Недостаточно иметь хороший текст или хорошие ссылки. Важно, чтобы качественный контент, отличный пользовательский опыт, техническая оптимизация и E-E-A-T работали вместе, усиливая друг друга.

    Что такое избыточность (Redundancy) и как она влияет на оптимизацию?

    Избыточность означает, что несколько разных факторов несут одну и ту же информацию для модели. Если два фактора всегда коррелируют, один из них лишний. В SEO это означает, что попытки усилить сигнал путем его повторения (например, переспам ключевыми словами в разных зонах документа) неэффективны. Система может посчитать эти сигналы избыточными и учитывать только один из них.

    Что такое Условная Взаимная Информация (CMI) простыми словами?

    CMI — это математическая метрика, которая позволяет измерить, сколько *новой* информации добавляет один фактор (признак) при условии, что мы уже знаем другие факторы. Если новый фактор не добавляет новой информации (т.е. он избыточен), его CMI будет низким. Если он добавляет много новой информации в комбинации с другими (т.е. он синергичен), его CMI будет высоким.

    Зачем в патенте используется бинаризация признаков?

    Бинаризация (преобразование признаков в формат 0/1) используется исключительно для снижения вычислительной сложности. Расчет CMI для большого количества взаимодействующих признаков (например, 5 или 6 одновременно) требует огромных ресурсов. Бинаризация радикально снижает размерность задачи, делая расчеты возможными и быстрыми. Это технический прием оптимизации.

    Влияет ли этот алгоритм на ранжирование моего сайта в реальном времени?

    Нет, напрямую не влияет. Этот алгоритм используется офлайн, на этапе разработки и обучения моделей ранжирования Яндекса. Он определяет, какие факторы будут учитываться основной формулой ранжирования (например, CatBoost). В реальном времени работает уже обученная модель, но сам процесс выбора признаков уже завершен.

    Что означает «учет взаимодействия более трех признаков» (параметр t)?

    Это означает, что система анализирует сложные комбинации. Например, Фактор 1 и Фактор 2 могут быть слабыми по отдельности, но в комбинации с Фактором 3 и Фактором 4 они могут давать очень сильный сигнал (синергия). Этот метод позволяет Яндексу находить такие глубокие, нелинейные связи между факторами ранжирования, которые упускают более простые методы.

    Может ли этот метод привести к тому, что важный SEO-фактор перестанет учитываться?

    Теоретически да. Если какой-либо фактор со временем станет полностью избыточным — то есть его информация будет полностью покрываться другими, более эффективными факторами — этот метод может автоматически исключить его из набора признаков для обучения будущих моделей ранжирования в целях оптимизации.

    Означает ли этот патент, что Яндекс знает точный список факторов ранжирования?

    Нет. Этот патент описывает не список факторов, а автоматизированный метод, с помощью которого Яндекс этот список формирует и оптимизирует. Метод позволяет системе самостоятельно находить, какие факторы и их комбинации наиболее полезны для предсказания релевантности на основе анализа больших данных.

    Какова главная практическая польза этого патента для Senior SEO специалиста?

    Главная польза — стратегическая. Патент показывает, что система не просто суммирует факторы, а глубоко анализирует их взаимодействие (синергию) и информативность (избыточность). Это укрепляет понимание того, что долгосрочный успех зависит от комплексного качества и создания разнообразных сигналов, а не от манипуляций отдельными или дублирующими факторами.

    Навигация
    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх
    Telegram
    © 2025 SEO HARDCORE

    Type above and press Enter to search. Press Esc to cancel.