Close Menu
    Telegram
    SEO HARDCORE
    • Разборы патентов
      • Патенты Google
      • Патенты Яндекс
    • Скоро
      SEO инструменты
    • Скоро
      SEO аналитика
    SEO HARDCORE
    Разборы патентов • Патенты Яндекс

    Как Яндекс использует вирусную активность в социальных сетях для обнаружения ошибок классификации контента и переобучения своих ML-моделей

    METHOD OF AND SERVER FOR RETRAINING MACHINE LEARNING ALGORITHM (Метод и сервер для переобучения алгоритма машинного обучения)
    • US20200327162A1
    • Yandex LLC
    • 2020-10-15
    • 2020-03-31
    2020 Антикачество Качество контента Обучение моделей Патенты Яндекс

    Яндекс патентует метод автоматического улучшения классификаторов контента (например, фильтров SafeSearch). Если пользователи массово делятся примерами ошибок поиска (например, шокирующий контент в безопасном режиме), система обнаруживает связанный с этим всплеск трафика из социальных сетей, идентифицирует контент, подтверждает ошибку классификации и использует эти данные для переобучения ML-модели.

    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх

    Описание

    Какую задачу решает

    Патент решает проблему повышения точности алгоритмов машинного обучения (MLA), используемых для классификации документов в поиске. Основная сложность заключается в дороговизне и трудоемкости сбора качественных обучающих данных, особенно для пограничных случаев или «серых зон» (grey-area), где классификаторы часто ошибаются. Это может приводить к серьезным проблемам, например, к показу неприемлемого контента при включенном родительском контроле (безопасном поиске).

    Что запатентовано

    Запатентован метод и система для автоматического обнаружения ошибок классификации MLA и генерации новых обучающих данных (Training Objects) для его переобучения. Суть изобретения заключается в использовании внешних сигналов из социальных сетей и связанных с ними аномалий поискового трафика для выявления неправильно классифицированных документов. Система предполагает, что ошибки классификации (например, забавные или шокирующие результаты) могут стать вирусными в социальных сетях, и использует эту активность для улучшения своих классификаторов.

    Как это работает

    Система отслеживает поисковый трафик на предмет «флуктуаций» (fluctuations) — внезапных всплесков запросов, особенно тех, которые приходят из социальных сетей (Traffic Source). Затем система анализирует контент на этих внешних платформах, ища посты, связанные с этими запросами, часто содержащие определенные ключевые слова (например, «fail», «funny»). Цель — найти посты, где пользователи обсуждают результаты поиска, которые система считает неправильно классифицированными. После обнаружения такого документа система проверяет факт ошибки классификации (в патенте упоминается возможность использования асессоров или другого MLA). Подтвержденные ошибки используются как новые Training Objects для переобучения исходного MLA.

    Актуальность для SEO

    Высокая. Автоматизация сбора данных для обучения ML-моделей и использование социальных сигналов для оценки качества поиска являются критически важными задачами для современных поисковых систем. Механизмы контроля качества контента и фильтрации (например, SafeSearch) постоянно совершенствуются, и описанный метод предоставляет эффективный канал обратной связи для этого.

    Важность для SEO

    Влияние на SEO умеренное (4/10). Патент не описывает алгоритм ранжирования, а фокусируется на инфраструктуре улучшения классификаторов контента (например, фильтры для взрослых, определение тематики, оценка качества). Для SEO-специалистов это означает, что попытки эксплуатировать «серые зоны» или временные лазейки в классификаторах становятся более рискованными, так как система способна быстро обнаруживать и устранять такие лазейки, реагируя на публичное обсуждение ошибок.

    Детальный разбор

    Термины и определения

    Content Item (Единица контента)
    Контент, размещенный пользователем на внешнем ресурсе (например, пост в социальной сети). Может включать текст, изображения, ссылки, метаданные (хэштеги).
    First Set of Features / Content Features (Первый набор признаков / Признаки контента)
    Набор данных, используемый для поиска релевантных постов на внешнем ресурсе. Включает индикацию исходного поискового запроса, индикацию документа из выдачи и Predetermined Word List.
    Fluctuations (Флуктуации)
    Нерегулярные вариации или аномалии в данных о взаимодействии пользователей. Например, внезапный всплеск количества отправок определенного запроса или необычные паттерны кликов.
    MLA (Machine Learning Algorithm / Алгоритм машинного обучения)
    Алгоритм (например, классификатор), обученный классифицировать документы на основе их признаков (например, классификатор SafeSearch или релевантности).
    Misclassified Document (Неправильно классифицированный документ)
    Документ, которому MLA присвоил неверный класс. Например, документ, который не соответствует запросу (non-responsive), не подходит для него (non-suitable) или не соответствует режиму работы браузера (например, adult-контент в режиме родительского контроля).
    Predetermined Word List (Предопределенный список слов)
    Список слов и фраз, часто связанных с вирусным контентом или указанием на ошибки системы. Примеры из патента: «wow», «funny», «unbelievable», «fail», «failure», «ridiculous», «stupid», «StupidAI», название поисковой системы.
    Resource (Ресурс)
    Внешняя платформа, где пользователи размещают контент (социальные сети, блоги, мессенджеры).
    Traffic Information (Информация о трафике)
    Данные о взаимодействии пользователей с поиском. Включают количество отправок запроса (Number of Submissions) и источник трафика (Traffic Source).
    Training Object (Обучающий объект)
    Документ, который был идентифицирован как неправильно классифицированный и которому была присвоена метка с указанием правильного класса. Используется для переобучения MLA.

    Ключевые утверждения (Анализ Claims)

    Патент защищает метод использования внешних сигналов для автоматического выявления ошибок классификации и переобучения моделей.

    Claim 1 (Независимый пункт): Описывает основной метод переобучения MLA.

    1. Система получает доступ к внешнему ресурсу (например, социальной сети) с пользовательским контентом.
    2. Система идентифицирует на этом ресурсе единицу контента (пост), связанную с документом, который ранее был показан в результатах поиска. Идентификация происходит на основе First Set of Features.
    3. Система анализирует этот элемент контента, чтобы определить, был ли связанный с ним документ неправильно классифицирован (misclassified) MLA в ответ на поисковый запрос.
    4. Если определено, что документ был неправильно классифицирован: генерируется Training Object на основе этого документа, включая метку о неправильной классификации, и MLA переобучается.

    Claim 2 (Зависимый от 1): Описывает критически важный этап предварительного анализа поисковых логов для выявления аномалий (предшествует Claim 1).

    Система:

    1. Получает из базы данных прошлые поисковые запросы и связанные с ними результаты.
    2. Получает информацию о трафике для каждого запроса, включая количество отправок (Number of Submissions).
    3. Определяет конкретный поисковый запрос (который привел к потенциальной ошибке) на основе количества отправок (т.е. обнаруживает всплеск трафика).

    Claims 3-5 (Зависимые): Уточняют механизм обнаружения аномалий (Claim 2).

    • Определение запроса также включает определение источника трафика (referrer) (Claim 3).
    • Система проверяет, входит ли источник трафика в предопределенный список (Predetermined list of traffic sources), например, известные социальные сети (Claim 4).
    • Определение запроса основывается на том, что количество отправок превышает определенный порог в течение определенного периода времени (идентификация флуктуации) (Claim 5).

    Claims 7-8 (Зависимые): Определяют состав First Set of Features, используемого для поиска в социальных сетях (Claim 1).

    • Признаки включают индикацию поискового запроса и индикацию как минимум одного документа из результатов поиска (Claim 7).
    • Признаки дополнительно включают Predetermined Word List (например, «fail», «wow») (Claim 8).

    Где и как применяется

    Изобретение в первую очередь относится к инфраструктуре контроля качества и обучения моделей машинного обучения (MLOps). Это преимущественно офлайн-процесс.

    CRAWLING – Сканирование и Сбор данных
    Система активно собирает данные с внешних ресурсов, таких как социальные сети (через API или краулинг), для мониторинга обсуждений результатов поиска.

    INDEXING – Индексирование и извлечение признаков (Офлайн-процессы)
    Основное применение. MLA, который переобучается с помощью этого метода, используется на этом этапе для классификации документов (например, фильтры SafeSearch, Anti-Quality). Метод улучшает точность этих классификаторов путем анализа логов, верификации ошибок и переобучения.

    RANKING – Ранжирование (Косвенное влияние)
    Патент не влияет на ранжирование напрямую, но улучшенные классификаторы используются на этапах ранжирования и пост-фильтрации. Если классификатор (например, SafeSearch) становится точнее, это изменяет состав выдачи в режимах с фильтрацией.

    На что влияет

    • Конкретные типы контента: Наибольшее влияние оказывается на контент, находящийся на границе классификации («grey-area»). Это особенно актуально для изображений (упомянуто в патенте Claim 9), видео и текстов, которые могут быть ошибочно помечены как безопасные или наоборот.
    • Фильтрация и безопасность: Прямое влияние на работу фильтров безопасного поиска (SafeSearch) и родительского контроля. Система направлена на быстрое устранение ошибок, когда неприемлемый контент проникает в безопасную выдачу.
    • Определенные ниши или тематики: Ниши с высоким уровнем UGC, развлекательный контент, а также YMYL-тематики, где точность классификации и фильтрации контента критически важна.

    Когда применяется

    • Условия работы: Алгоритм работает в режиме непрерывного мониторинга логов.
    • Триггеры активации (Обнаружение кандидатов): Активация процесса поиска конкретной ошибки происходит при обнаружении Fluctuations в поисковом трафике — когда количество отправок запроса превышает порог за определенный период времени, И источник этого трафика находится в списке отслеживаемых социальных сетей.
    • Триггеры активации (Переобучение): Переобучение MLA может происходить по расписанию или когда количество новых сгенерированных Training Objects достигает определенного порога.

    Пошаговый алгоритм

    Процесс работы системы можно разделить на четыре основных этапа.

    Этап 1: Мониторинг поискового трафика

    1. Сбор данных: Система собирает данные из логов поиска: запросы, показанные результаты, Traffic Information (включая количество отправок запроса и источники трафика/referrer URLs).
    2. Обнаружение аномалий (Fluctuations): Выявление запросов, демонстрирующих нерегулярные вариации трафика (например, резкий всплеск количества отправок, превышающий порог).
    3. Фильтрация по источнику: Отбор запросов, у которых всплеск трафика связан с источниками из предопределенного списка (социальные сети).
    4. Извлечение признаков для поиска: Для отобранных запросов формируется набор Content Features. Он включает: текст запроса, индикаторы документов из выдачи и список предопределенных «вирусных» слов (например, «fail», «funny»).

    Этап 2: Мониторинг социальных сетей

    1. Доступ к данным: Система обращается к идентифицированным социальным сетям (например, через API).
    2. Идентификация постов: Поиск Content Items (постов) на платформе с использованием набора Content Features из Этапа 1. Система ищет посты, где упоминается запрос, документ и/или присутствуют «вирусные» слова или хэштеги.
    3. Извлечение документов: Из найденных постов извлекаются документы (или их части, например, из скриншотов SERP), которые обсуждаются пользователями. Формируется набор потенциально неправильно классифицированных документов.

    Этап 3: Определение неправильной классификации

    1. Получение признаков: Для каждого потенциально неправильно классифицированного документа система извлекает Document Features, которые использовались исходным MLA для классификации.
    2. Верификация ошибки: Система определяет, действительно ли произошла ошибка классификации. В патенте упоминается, что это может быть сделано с помощью людей-асессоров (human assessors) или другого MLA.
    3. Генерация обучающих данных: Для подтвержденных ошибок генерируются Training Objects, где документ помечается правильным классом.

    Этап 4: Переобучение

    1. Переобучение MLA: Исходный MLA переобучается с использованием новых Training Objects.
    2. Валидация: Проверка производительности переобученного MLA.

    Какие данные и как использует

    Данные на входе

    • Поведенческие факторы: Критически важны для обнаружения аномалий. Используются логи запросов (Query Log) и взаимодействий (User Interaction Log). Отслеживаются: количество отправок запроса (Number of Submissions), клики, CTR, dwell time.
    • Технические факторы (Сетевые): Источники трафика (Traffic Source / Referrer URLs). Используются для определения того, пришел ли трафик из социальных сетей.
    • Внешние данные (Социальные сети): Content Items (посты, текст, изображения, видео), метаданные (хэштеги).
    • Контентные факторы: Тексты запросов, тексты и содержимое документов (в частности, изображения). Используются для генерации Content Features и Document Features.
    • Системные данные: Predetermined Word List (список слов-маркеров вирусности/ошибки). Предопределенный список источников трафика.

    Какие метрики используются и как они считаются

    • Fluctuations (Флуктуации трафика): Определяются на основе статистического анализа прошлых взаимодействий или путем сравнения текущих показателей (например, количества отправок запроса) с предопределенным порогом (predetermined threshold) за определенный период времени (Claim 5).
    • Идентификация источника: Сравнение источника трафика с предопределенным списком источников трафика.
    • Соответствие Content Features: Метрики соответствия между набором Content Features (запрос + документ + вирусные слова) и контентом постов в социальных сетях.
    • Верификация классификации: Оценка точности классификации, выполняемая асессорами или альтернативным MLA.

    Выводы

    1. Социальные сети как детектор ошибок поиска: Яндекс активно использует вирусную активность в социальных сетях как механизм обратной связи для обнаружения сбоев в своих системах классификации контента (например, SafeSearch). Если ошибка поиска становится публичной и обсуждаемой, система это обнаружит.
    2. Всплески трафика как индикаторы ошибок: Аномальные всплески трафика (Fluctuations), исходящие из социальных сетей, рассматриваются как сильные индикаторы потенциальных ошибок классификации.
    3. Автоматизация улучшения классификаторов: Ключевая цель — автоматизировать сбор сложных («grey-area») примеров для обучения ML-моделей, сокращая затраты на ручную разметку и ускоряя реакцию на ошибки.
    4. Комплексный анализ сигналов: Система ищет сочетание сигналов: аномальный всплеск трафика ИЗ определенного источника (социальная сеть) ПО конкретному запросу, который обсуждается с использованием специфических маркеров (например, «fail», «funny»).
    5. Уязвимость «серых зон» сокращается: Механизм направлен на быстрое закрытие лазеек в классификации. Контент, который ранее мог просачиваться через фильтры, будет быстрее идентифицирован и использован для дообучения фильтра.

    Практика

    Best practices (это мы делаем)

    Патент носит инфраструктурный характер, но дает важный контекст для SEO-стратегии.

    • Соблюдение четких границ контента: Убедитесь, что контент на сайте четко соответствует заявленной тематике и не содержит элементов, которые могут быть интерпретированы как неприемлемые или вводящие в заблуждение. Классификаторы становятся точнее благодаря этому механизму.
    • Мониторинг социальных упоминаний в контексте поиска: Отслеживайте, не появляются ли в социальных сетях обсуждения вашего сайта как примера ошибки поиска (например, если ваш сайт появился по нерелевантному запросу). Это может быть ранним сигналом того, что система пересмотрит классификацию вашего контента.
    • Обеспечение релевантности: Если ваш сайт ранжируется по запросу, но контент не соответствует ожиданиям (non-responsive или non-suitable), и это вызывает негативную реакцию в социальных сетях, система может использовать это как сигнал для переобучения классификатора релевантности.

    Worst practices (это делать не надо)

    • Эксплуатация лазеек в фильтрах (Cloaking/Подмена контента): Попытки обмануть классификаторы (например, SafeSearch) становятся крайне рискованными. Если обман будет обнаружен пользователями и станет вирусным, система автоматически обнаружит это и использует для улучшения фильтра, что приведет к быстрой пессимизации.
    • Использование пограничного контента («Grey-Area»): Размещение контента, который находится на грани допустимого. Благодаря описанному механизму, границы классификации будут уточняться быстрее, и такой контент с большей вероятностью будет отфильтрован.
    • Игнорирование жалоб пользователей в социальных сетях: Негативная обратная связь о качестве вашего контента в выдаче, ставшая публичной, теперь является прямым сигналом для систем обучения Яндекса.

    Стратегическое значение

    Патент подтверждает стратегию Яндекса на использование внешних сигналов и поведения пользователей за пределами поиска для оценки и улучшения качества поиска. Он демонстрирует сложную инфраструктуру для автоматизированного контроля качества ML-моделей. Для SEO это означает, что репутация сайта и восприятие его контента пользователями в широком вебе (включая социальные сети) напрямую влияют на то, как классификаторы Яндекса будут обрабатывать сайт.

    Практические примеры

    Сценарий 1: Сбой фильтра SafeSearch (False Negative)

    1. Ситуация: Пользователь ищет «игрушки для детей» в режиме родительского контроля. Из-за ошибки классификатора (MLA) на первой странице выдачи появляется изображение неприемлемого контента.
    2. Реакция пользователей: Возмущенные пользователи делают скриншоты и массово публикуют их в VKontakte и Twitter с комментариями вроде «Яндекс fail!», «#StupidAI».
    3. Действие системы (Этап 1): Система мониторинга обнаруживает Fluctuation: резкий всплеск трафика по запросу «игрушки для детей», приходящий из VKontakte и Twitter.
    4. Действие системы (Этап 2): Система анализирует соцсети, используя Content Features (запрос + слова «fail», «StupidAI»). Она находит вирусные посты и идентифицирует неприемлемое изображение.
    5. Действие системы (Этап 3): Асессоры или альтернативный MLA подтверждают, что документ является неприемлемым и был ошибочно показан. Генерируется Training Object.
    6. Результат (Этап 4): Классификатор SafeSearch переобучается на этом примере. Фильтр обновляется, и изображение исчезает из безопасной выдачи.

    Сценарий 2: Ошибка классификации (False Positive)

    1. Ситуация: Медицинский сайт публикует образовательные диаграммы. Классификатор Яндекса ошибочно помечает их как Adult-контент, и они исчезают из выдачи в режиме SafeSearch.
    2. Реакция пользователей: Пользователи и врачи возмущены, обсуждают это в Facebook как пример некорректной работы фильтров.
    3. Действие системы: Система обнаруживает всплеск трафика из Facebook по связанным запросам и анализирует посты.
    4. Верификация: Асессоры подтверждают, что это медицинский контент, а не Adult (ошибка классификации).
    5. Результат: Классификатор переобучается, чтобы лучше отличать медицинский контент. Диаграммы возвращаются в выдачу SafeSearch.

    Вопросы и ответы

    Что такое MLA в контексте этого патента и что он делает?

    MLA (Machine Learning Algorithm) — это алгоритм машинного обучения, который используется Яндексом для классификации документов. В патенте в качестве основного примера приводятся классификаторы, отвечающие за фильтрацию контента, например, определяющие, является ли контент приемлемым для показа в режиме родительского контроля (SafeSearch), или определяющие общую релевантность документа запросу.

    Какую основную проблему решает этот патент для Яндекса?

    Он решает проблему дороговизны и сложности сбора качественных данных для обучения ML-моделей, особенно для редких или пограничных случаев («grey-area»). Вместо ручного поиска ошибок классификации, Яндекс автоматизирует этот процесс, используя вирусную активность пользователей в социальных сетях как индикатор того, что классификатор допустил ошибку, и автоматически генерирует данные для его исправления.

    Что такое «Флуктуации» (Fluctuations) трафика?

    Флуктуации — это аномалии или нерегулярные изменения в поведении пользователей. В контексте патента это чаще всего внезапный и резкий всплеск количества отправок определенного поискового запроса за короткий промежуток времени, превышающий заданные пороги. Также это могут быть необычные паттерны кликов по результатам выдачи.

    Как Яндекс определяет, что всплеск трафика связан именно с ошибкой классификации, а не просто с популярностью темы?

    Система использует комбинацию сигналов. Во-первых, она проверяет, что источник трафика — это социальная сеть из предопределенного списка. Во-вторых, она анализирует контент на этой платформе, ища посты, связанные с запросом, которые содержат специфические маркеры из Predetermined Word List (например, слова «fail», «wow», «funny», «StupidAI»). Эта комбинация позволяет идентифицировать вирусное обсуждение ошибки поиска.

    Означает ли это, что Яндекс активно сканирует социальные сети?

    Да, патент прямо описывает механизм доступа к ресурсам социальных сетей (например, через API или краулинг) для мониторинга и анализа пользовательского контента (Content Items). Система ищет обсуждения результатов поиска Яндекса для выявления ошибок классификации.

    Как это влияет на сайты, работающие в «серой зоне»?

    Влияние негативное. Этот механизм позволяет Яндексу быстрее обнаруживать и закрывать лазейки в своих фильтрах. Если сайт использует тактики для обхода классификаторов, и этот обход будет замечен пользователями и станет вирусным, система быстро идентифицирует этот контент и использует его для дообучения фильтра, повышая риски для таких сайтов.

    Что происходит после того, как система обнаружила потенциальную ошибку?

    Система не сразу запускает переобучение. Сначала она должна верифицировать, что ошибка действительно имела место. Патент указывает, что эта верификация может выполняться либо людьми-асессорами (human assessors), либо другим, альтернативным алгоритмом машинного обучения (MLA). Только после подтверждения генерируется обучающий объект.

    Как SEO-специалисту использовать эту информацию на практике?

    Необходимо тщательно следить за тем, чтобы контент сайта был однозначно классифицируем и не попадал в пограничные категории. Также важно мониторить социальные сети на предмет обсуждения вашего сайта в контексте ошибок поиска. Если ваш сайт стал примером нерелевантной выдачи и это вызвало публичную реакцию, это может привести к пересмотру его классификации.

    Какие типы ресурсов отслеживает Яндекс согласно патенту?

    В патенте упоминается Predetermined list of traffic sources. В качестве примеров в описании приведены социальные сети (Facebook, VKontakte, Twitter, Reddit, Instagram, Pinterest, YouTube), платформы для блогинга (WordPress, Tumblr, Medium) и мессенджеры (Viber, WhatsApp).

    Является ли этот механизм формой краудсорсинга?

    Да, это можно рассматривать как форму неявного краудсорсинга. Система использует коллективную реакцию пользователей в социальных сетях (шок, юмор, обсуждение) для выявления ошибок, которые сложно обнаружить внутренними метриками. Пользователи, обсуждая ошибки поиска, помогают улучшать классификаторы Яндекса.

    Навигация
    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх
    Telegram
    © 2025 SEO HARDCORE

    Type above and press Enter to search. Press Esc to cancel.