Яндекс патентует метод повышения эффективности краудсорсинговых задач (например, оценки качества поиска). Система одновременно отправляет задачу человеку-асессору и алгоритму машинного обучения (MLA). На основе их ответов и исторических оценок качества (Quality Scores) динамически рассчитывается уровень уверенности (Confidence Level). Если уверенность высока, задача завершается; если нет, привлекаются дополнительные асессоры до достижения нужного порога.
Описание
Какую задачу решает
Патент решает проблему эффективности, стоимости и скорости выполнения краудсорсинговых задач при сохранении заданного уровня качества результатов. Традиционные методы требуют привлечения нескольких людей-асессоров для валидации одной и той же задачи, что дорого и медленно. Изобретение направлено на минимизацию количества привлекаемых асессоров для каждой конкретной задачи, не жертвуя достоверностью результата.
Что запатентовано
Запатентован метод динамического управления выполнением краудсорсинговых задач с использованием гибридного подхода: Human Assessor (Человек-асессор) и Machine Learning Algorithm (MLA) (Алгоритм машинного обучения). Суть изобретения заключается в итеративном расчете Confidence Level Parameter (Параметр уровня уверенности) после получения ответов и сравнении его с заданным порогом. Система использует исторические Quality Scores (Оценки качества) как асессоров, так и MLA для определения надежности их ответов.
Как это работает
Система отправляет задачу первому человеку-асессору и одновременно выполняет ее с помощью обученного MLA. Оба имеют известные Quality Scores, основанные на прошлых результатах выполнения «эталонных задач» (Honeypot Tasks). Получив оба ответа, система рассчитывает Confidence Level Parameter — вероятность того, что ответ человека верен, используя, например, Байесовскую функцию. Если этот параметр превышает заданный порог (Pre-defined Threshold Probability), задача считается выполненной. Если нет (например, если ответы расходятся), система привлекает дополнительных асессоров. На каждом шаге рассчитывается Weighted Majority Result (Взвешенный результат большинства) и новый уровень уверенности, пока порог не будет достигнут.
Актуальность для SEO
Высокая. Оптимизация процессов краудсорсинга и разметки данных (Data Labeling) критически важна для обучения современных поисковых систем. Гибридные подходы (Human-in-the-loop + ML) для повышения эффективности и качества разметки — это современный стандарт в индустрии (например, в платформах типа Яндекс.Толока).
Важность для SEO
Влияние на SEO косвенное (3/10). Патент не описывает алгоритмы ранжирования. Он описывает инфраструктуру, которую Яндекс использует для оценки качества и разметки данных. Эта инфраструктура генерирует данные (Ground Truth), которые затем используются для обучения ключевых алгоритмов ранжирования и метрик качества (например, Proxima). Таким образом, патент позволяет Яндексу быстрее и дешевле получать высококачественные данные для обучения своих поисковых моделей, но не дает прямых рекомендаций для SEO.
Детальный разбор
Термины и определения
- Confidence Level Parameter (Параметр уровня уверенности, $a_{j}$)
- Метрика, рассчитываемая сервером и указывающая на апостериорную вероятность того, что конкретный результат выполнения задачи (например, Weighted Majority Result) является правильным.
- Error Probability Parameter (Параметр вероятности ошибки, $e_{w}$)
- Метрика, указывающая на вероятность того, что данный асессор или MLA предоставит неверный результат. Рассчитывается на основе Quality Score.
- Honeypot Tasks (Эталонные задачи, «Ханипоты»)
- Задачи, правильный результат выполнения которых известен системе заранее. Используются для расчета и калибровки Quality Score как людей-асессоров, так и MLA.
- Human Assessor (Человек-асессор)
- Человек, выполняющий краудсорсинговые задачи (например, асессор Яндекса или исполнитель Толоки).
- Machine Learning Algorithm (MLA) (Алгоритм машинного обучения)
- Алгоритм, обученный выполнять задачи определенного типа. В контексте патента выступает как автоматизированный асессор, работающий параллельно с людьми.
- Pre-defined Threshold Probability (Заданная пороговая вероятность, EPS)
- Минимально допустимый уровень уверенности в результате. Задача считается выполненной, только когда Confidence Level Parameter превышает этот порог.
- Quality Score (Оценка качества, $q_{w}$)
- Метрика, присваиваемая каждому асессору (человеку или MLA) и указывающая на его надежность (reliability). Рассчитывается как процент правильно выполненных Honeypot Tasks (часто со сглаживанием).
- Weighted Majority Result (Взвешенный результат большинства, $\hat{z}_{j}$)
- Итоговый результат задачи, определенный путем голосования всех участников (людей и MLA), где голос каждого участника взвешивается пропорционально его Quality Score. Побеждает результат с наибольшей суммарной оценкой качества.
Ключевые утверждения (Анализ Claims)
Патент определяет систему, которая динамически решает, достаточно ли данных для завершения задачи, используя комбинацию ответов человека и машины для оптимизации ресурсов.
Claim 1 (Независимый пункт): Описывает базовый сценарий с одним человеком и MLA.
- Сервер получает первый результат от человека-асессора (у которого есть Quality Score).
- Сервер выполняет задачу с помощью MLA, получая второй результат (у MLA также есть Quality Score).
- Сервер рассчитывает Confidence Level Parameter — вероятность того, что первый результат (ответ человека) верен.
- Расчет основан на: первом результате, втором результате, оценке качества человека и оценке качества MLA.
- Сервер проверяет, превышает ли этот параметр заданный порог (Pre-defined Threshold Probability).
- Если превышает, задача обрабатывается как завершенная с первым результатом.
Claim 4, 5, 6 (Зависимые): Уточняют механизм расчета уверенности.
- Система рассчитывает Error Probability Parameter (Параметр вероятности ошибки) для человека и MLA, который указывает на вероятность того, что их результат неверен (Claim 4). Этот параметр определяется на основе Quality Score (Claim 6).
- Расчет Confidence Level Parameter может включать выполнение Байесовской функции (Bayesian function), входами которой являются параметры вероятности ошибки и оценки качества человека и MLA (Claim 5).
Claim 15 (Зависимый от Claim 1): Описывает сценарий эскалации, когда уверенности недостаточно (Confidence Level Parameter ниже порога).
- Если вероятность ниже порога, сервер получает как минимум один дополнительный результат от дополнительного человека-асессора.
- Сервер определяет Weighted Majority Result (Взвешенный результат большинства).
- Этот расчет основан на всех полученных результатах (Человек 1, MLA, Человек 2+) и соответствующих Quality Scores каждого из них. Weighted Majority Result — это результат, имеющий наибольшую совокупную оценку качества (Largest Cumulative Quality Score).
- Сервер рассчитывает новый (второй) Confidence Level Parameter для этого взвешенного результата.
- Если новый параметр превышает порог, задача обрабатывается как завершенная с этим взвешенным результатом.
Где и как применяется
Этот патент не относится к компонентам, обрабатывающим поисковый запрос пользователя в реальном времени (таким как Query Processing или Ranking). Он относится к инфраструктуре обеспечения качества и разметки данных.
QUALITY & GOVERNANCE LAYER (Слой Качества и Метрик)
Изобретение описывает методологию работы краудсорсинговой платформы Яндекса (вероятно, Яндекс.Толока или внутренняя система асессорской оценки). Эта платформа используется для генерации данных (Ground Truth), которые затем применяются на разных этапах:
- Обучение ML-моделей ранжирования: Алгоритмы ранжирования (CatBoost) и метрики качества (Proxima, Anti-Quality) обучаются на данных, размеченных асессорами. Описанный метод позволяет Яндексу генерировать эти обучающие датасеты быстрее, дешевле и с контролируемым качеством.
- Валидация и Метрики: Оценка качества выдачи и успешности экспериментов (метрика Профицит) также опирается на асессорские оценки. Метод обеспечивает надежность этих оценок.
Система взаимодействует с базой данных асессоров (хранящей их Quality Scores) и с обученными MLA, специфичными для типа выполняемой задачи.
На что влияет
- Типы контента и задачи: Патент явно указывает (Claim 11, 12, 14), что метод применим к широкому спектру задач, критически важных для поиска:
- Web page evaluation (Оценка веб-страниц)
- Search result analysis (Анализ результатов поиска)
- Relevance inquiry (Оценка релевантности)
- Categorization (Категоризация документов, изображений, текстов)
- Document analysis (Анализ документов)
- Специфические применения: В описании патента упоминается использование метода для эффективной фильтрации нежелательного контента, например, контента для взрослых (adult content), чтобы обеспечить работу режимов «безопасного поиска» (SafeSearch / child safe browsing modes).
Когда применяется
Алгоритм применяется, когда необходимо выполнить большой объем задач по оценке или разметке данных, оптимизируя затраты и время, но сохраняя заданный уровень уверенности в результате (EPS).
Триггеры активации:
- Активация базового сценария (Человек + MLA) происходит при поступлении новой задачи.
- Активация расширенного сценария (дополнительные асессоры) происходит, если рассчитанный Confidence Level Parameter не превышает заданный порог (EPS).
Ограничения: В патенте упоминается возможность установки лимитов (N_MAX) на максимальное количество итераций/асессоров.
Пошаговый алгоритм
Процесс А: Подготовка (Офлайн)
- Обучение MLA: Алгоритм обучается на наборе тренировочных задач с известными результатами.
- Расчет Quality Scores: Люди-асессоры и обученный MLA выполняют набор эталонных задач (Honeypot Tasks). На основе точности их ответов рассчитываются и сохраняются их индивидуальные Quality Scores ($q_{w}$).
Процесс Б: Выполнение задачи (Онлайн)
- Инициализация: Сервер получает новую задачу и устанавливает требуемый порог уверенности (EPS).
- Первая итерация:
- Задача выполняется первым человеком-асессором (Результат 1).
- Задача выполняется MLA (Результат 2).
- Расчет уверенности (Базовый): Сервер рассчитывает Confidence Level Parameter ($a_{j}$) для Результата 1, используя Байесовскую функцию, учитывая Результат 1, Результат 2 и Quality Scores человека и MLA.
- Проверка порога 1: Сравнение $a_{j}$ с EPS.
- Если $a_{j} > EPS$: Процесс завершается. Итоговый результат = Результат 1.
- Если $a_{j} \leq EPS$: Переход к следующей итерации.
- Последующие итерации:
- Задача выполняется дополнительным человеком-асессором (Результат N).
- Расчет взвешенного большинства: Сервер определяет Weighted Majority Result ($\hat{z}_{j}$) на основе всех полученных результатов (Человек 1, MLA, Человек 2…N) и их Quality Scores. Выбирается ответ с наибольшей суммой весов.
- Расчет уверенности (Расширенный): Сервер рассчитывает новый Confidence Level Parameter ($a_{j}$) для $\hat{z}_{j}$.
- Проверка порога 2+: Сравнение $a_{j}$ с EPS.
- Если $a_{j} > EPS$: Процесс завершается. Итоговый результат = $\hat{z}_{j}$.
- Если $a_{j} \leq EPS$: Повтор шага 5 (добавление нового асессора), пока не будет достигнут порог или максимальный лимит итераций.
Какие данные и как использует
Патент фокусируется на данных, связанных с процессом выполнения задач, а не на традиционных SEO-факторах (контентных, ссылочных, поведенческих пользователя на сайте).
Данные на входе
- Данные о задаче: Контент, который необходимо оценить (веб-страница, изображение, текст, результат поиска).
- Исторические данные (Временные факторы): История выполнения Honeypot Tasks асессорами и MLA. Эти данные используются для расчета Quality Scores.
- Системные параметры: Заданный порог уверенности (EPS), параметры сглаживания (K) для расчета весов.
Какие метрики используются и как они считаются
- Quality Score (Оценка качества / Вес, $q_{w}$): Рассчитывается для каждого асессора (w) на основе его производительности на эталонных задачах. В патенте приводится формула (Formula 1) с использованием параметра сглаживания K (например, K=10):
$${q_{w} \approx (K+c_{w})/(2K+t_{w})}$$
Где $c_{w}$ — количество правильных ответов на эталонные задачи, $t_{w}$ — общее количество выполненных эталонных задач. - Error Probability Parameter (Вероятность ошибки, $e_{w}$): Производная метрика от Quality Score. Указывает на вероятность того, что асессор предоставит неверный результат. Рассчитывается как:
$${e_{w} := (1-q_{w})/(|Y|-1)}$$
Где $|Y|$ — количество возможных вариантов ответа. - Weighted Majority Result (Взвешенный результат большинства, $\hat{z}_{j}$): Определяется как результат (z), набравший максимальную сумму весов (Quality Scores) проголосовавших за него участников (Formula 2):
$${\hat{z}_{j} := argmax_{z\in Y}\Sigma_{l=1}^{n}q_{w_{l}}^{*}I(y_{j}^{w_{l}}=z)}$$
Где $I(…)$ — индикаторная функция (равна 1, если условие истинно, и 0 в противном случае). - Confidence Level Parameter (Параметр уровня уверенности, $a_{j}$): Рассчитывается с использованием Байесовской функции (Bayesian function). Функция вычисляет апостериорную вероятность того, что выбранный результат является правильным, учитывая все полученные ответы, веса ($q_{w}$) и вероятности ошибок ($e_{w}$) всех участников.
Выводы
- Инфраструктурный патент, а не алгоритм ранжирования: Это изобретение описывает оптимизацию внутренних процессов Яндекса по разметке данных (краудсорсинг). Он не содержит информации об алгоритмах ранжирования сайтов в поиске и не дает прямых рекомендаций для SEO.
- Гибридный подход к оценке качества (Human + MLA): Яндекс использует систему, в которой алгоритм машинного обучения (MLA) выступает в роли полноценного асессора и валидатора. Его ответы и его историческая точность (Quality Score) напрямую влияют на итоговый результат и уровень уверенности.
- Динамическая оптимизация ресурсов: Ключевая инновация — это не фиксированное количество асессоров, а динамическое принятие решения о завершении задачи на основе Confidence Level Parameter. Это позволяет не привлекать лишних людей, если высокий уровень уверенности достигнут быстро.
- Строгий контроль качества данных: Система полагается на непрерывную оценку надежности участников с помощью Honeypot Tasks и использует строгий математический аппарат (Байесовские функции) для агрегации ответов. Это гарантирует высокую достоверность данных, используемых для обучения поисковых алгоритмов (Ground Truth).
- Масштабирование оценки качества: Этот метод обеспечивает фундамент для качественного машинного обучения в поиске, позволяя Яндексу масштабировать процессы оценки качества (например, для Proxima или фильтрации контента) более эффективно.
Практика
Патент описывает внутренние инфраструктурные процессы Яндекса по оценке качества и не дает прямых практических выводов для применения в тактическом SEO.
Best practices (это мы делаем)
Патент не предоставляет конкретных лучших практик для SEO. Однако он дает важное стратегическое понимание:
- Признание строгости оценки качества: Необходимо понимать, что эталонное качество в Яндексе (Ground Truth) определяется через этот строгий, гибридный процесс с высокими требованиями к достоверности. Это подтверждает необходимость фокусироваться на создании контента, который будет высоко оценен с точки зрения качества (E-E-A-T) и релевантности, соответствуя ожиданиям квалифицированных асессоров.
- Фокус на чистоте и безопасности контента: Патент прямо упоминает фильтрацию взрослого контента как пример использования. Это подчеркивает важность правильной категоризации контента и обеспечения безопасности пользователей (SafeSearch), так как выявление нарушений происходит через этот высокоточный механизм.
Worst practices (это делать не надо)
Патент не направлен против конкретных SEO-манипуляций и не описывает механизмов пессимизации. Однако, исходя из понимания процесса, можно выделить следующее:
- Игнорирование инструкций для асессоров: Не стоит думать, что асессорские оценки случайны или легко обходимы. Система контроля качества, описанная в патенте, направлена на максимизацию точности итоговой разметки путем взвешивания ответов и использования MLA. Попытки продвижения низкокачественного контента будут неэффективны против алгоритмов, обученных на этих данных.
Стратегическое значение
Стратегическое значение патента заключается в демонстрации технологического уровня инфраструктуры Яндекса для Data Labeling. Качество поиска напрямую зависит от качества данных для обучения. Этот патент описывает механизм, позволяющий Яндексу поддерживать высокое качество данных при масштабировании и ускорении процессов оценки. Для SEO-специалистов это сигнал о том, что оценка качества контента в Яндексе — это строго контролируемая процедура.
Практические примеры
Практических примеров для применения в SEO нет, так как патент инфраструктурный. Примеры ниже иллюстрируют работу системы Яндекса, а не действия SEO-специалиста.
Сценарий: Оценка качества сайта (например, для обучения Proxima)
Задача: Определить, является ли сайт высококачественным (Категория А) или низкокачественным (Категория Б). Требуемый порог уверенности (EPS) = 95%.
Случай 1: Согласие
- Итерация 1:
- Асессор 1 (Quality Score 90%): Говорит «Категория А».
- MLA (Quality Score 70%): Говорит «Категория А».
- Расчет: Система рассчитывает Confidence Level Parameter. Так как ответы совпадают, уверенность высокая (например, 95.5%).
- Итог: 95.5% > 95%. Задача завершена. Сайт признан высококачественным (Категория А). Потребовался всего 1 человек.
Случай 2: Разногласие и Эскалация
- Итерация 1:
- Асессор 1 (90%): Говорит «Категория А».
- MLA (70%): Говорит «Категория Б».
- Расчет: Из-за конфликта уверенность низкая (например, 79%).
- Итерация 2: Привлекается Асессор 2 (Quality Score 80%). Он говорит «Категория А».
- Расчет взвешенного большинства:
- Категория А: Вес = 0.9 (Ас. 1) + 0.8 (Ас. 2) = 1.7.
- Категория Б: Вес = 0.7 (MLA).
- Weighted Majority Result = Категория А.
- Уверенность: Новый Confidence Level Parameter рассчитывается (например, 93.9%).
- Итог: 93.9% < 95%. Может потребоваться еще одна итерация (Асессор 3) для достижения порога.
Вопросы и ответы
Описывает ли этот патент алгоритм ранжирования Яндекса?
Нет, этот патент не описывает, как Яндекс ранжирует сайты в поиске. Он описывает внутренний механизм оптимизации краудсорсинга — процесса, с помощью которого люди-асессоры и алгоритмы оценивают качество контента и разметку данных. Эти данные затем используются для обучения и валидации настоящих алгоритмов ранжирования.
Какова роль алгоритма машинного обучения (MLA) в этом процессе?
MLA выступает в роли автоматического асессора. Его задача — выполнить ту же работу, что и человек, и предоставить свой результат. Использование MLA позволяет валидировать ответ человека и потенциально сократить общее количество людей-асессоров, необходимых для достижения нужного уровня уверенности в результате, тем самым удешевляя и ускоряя процесс.
Как определяются оценки качества (Quality Scores) асессоров и MLA?
Оценки качества определяются на основе выполнения контрольных заданий (Honeypot Tasks) — задач, правильные ответы на которые заранее известны системе. Quality Score обычно рассчитывается как процент правильных ответов на эти задания. В патенте также приводится формула для сглаженного расчета этой оценки.
Что происходит, если человек-асессор и MLA дают разные ответы?
Если ответы расходятся, система рассчитывает уровень уверенности (Confidence Level Parameter) с учетом этого расхождения и индивидуальных оценок качества участников. Как правило, расхождение приводит к снижению уровня уверенности. Если он падает ниже заданного порога, система автоматически привлекает дополнительных людей-асессоров для разрешения противоречия.
Что такое Weighted Majority Result (Взвешенный результат большинства)?
Это метод агрегации ответов, который отличается от простого голосования. При расчете Weighted Majority Result учитываются не только сами ответы, но и оценки качества (Quality Scores) давших их участников. Итоговым результатом признается тот вариант, за который проголосовала наибольшая суммарная оценка качества, а не просто большинство участников.
Связана ли эта система с метрикой качества Proxima?
Да, связь прямая, но косвенная. Proxima — это ML-модель, которая оценивает качество страниц. Для обучения Proxima нужны тысячи оценок от людей-асессоров. Описанный в патенте метод — это как раз тот механизм, который используется для эффективного сбора этих оценок и гарантии их достоверности. Патент описывает инфраструктуру обучения Proxima.
Какое практическое значение этот патент имеет для SEO-специалиста?
Прямых рекомендаций по оптимизации сайта патент не дает. Его значение стратегическое: он показывает, насколько серьезно Яндекс подходит к качеству асессорских оценок. Система использует сложный математический аппарат (Байесовские функции) и гибридный подход (Human+AI), чтобы гарантировать высокую достоверность данных, на которых обучается поиск. Это подтверждает важность фокуса на качестве контента.
Зачем используется Байесовская функция (Bayesian function)?
Байесовская функция используется для расчета апостериорной вероятности правильности результата (Confidence Level Parameter). Она позволяет математически точно объединить априорные знания о качестве участников (их Quality Scores) с фактически полученными от них ответами, чтобы определить, насколько можно доверять итоговому результату.
Может ли эта система привести к ошибкам, если MLA обучен плохо?
Система учитывает это. Качество MLA постоянно измеряется через Honeypot Tasks, и ему присваивается Quality Score. Если MLA обучен плохо, его Quality Score будет низким. В этом случае его ответы будут иметь малый вес при расчете взвешенного большинства и уровня уверенности, и система будет больше полагаться на людей-асессоров с высокими показателями качества.
Используется ли этот механизм в Яндекс.Толоке?
Хотя в патенте прямо не упоминается Толока, описанные механизмы (оценки качества асессоров, ханипоты, динамическое перекрытие задач, достижение порога достоверности) являются фундаментальными принципами работы современных краудсорсинговых платформ. Весьма вероятно, что эти методы используются в инфраструктуре Толоки для оптимизации процессов.