Close Menu
    Telegram
    SEO HARDCORE
    • Разборы патентов
      • Патенты Google
      • Патенты Яндекс
    • Скоро
      SEO инструменты
    • Скоро
      SEO аналитика
    SEO HARDCORE
    Разборы патентов • Патенты Яндекс

    Как Яндекс использует анализ текста для прогнозирования поведенческих факторов и решения проблемы «холодного старта» в рекомендациях

    METHOD FOR TRAINING A MACHINE LEARNING ALGORITHM (MLA) TO GENERATE A PREDICTED COLLABORATIVE EMBEDDING FOR A DIGITAL ITEM (Метод обучения алгоритма машинного обучения (MLA) для генерации предсказанного коллаборативного эмбеддинга для цифрового элемента)
    • US20220083614A1
    • Yandex LLC
    • 2022-03-17
    • 2021-04-16
    2022 Обучение моделей Патенты Яндекс Рекомендательные системы Холодный старт Яндекс Дзен

    Яндекс патентует метод для систем рекомендаций (например, Дзен), позволяющий прогнозировать, как пользователи будут взаимодействовать с новым контентом, анализируя только его текст. Система обучает модель (Transfer Learning MLA) находить связь между текстом известных статей и их поведенческими метриками (Collaborative Embeddings). Это позволяет эффективно рекомендовать новые материалы сразу после их появления, даже без истории просмотров.

    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх

    Описание

    Какую задачу решает

    Патент решает фундаментальную проблему рекомендательных систем — проблему «холодного старта» (Cold Start) и разреженности данных (Data Sparsity). Традиционные методы Коллаборативной Фильтрации (Collaborative Filtering, CF), например, основанные на SVD (Singular Value Decomposition), требуют достаточного количества данных о взаимодействии пользователей с элементом (user-item interactions) для генерации качественных эмбеддингов. Для новых или непопулярных материалов таких данных недостаточно, что не позволяет эффективно рекомендовать такой контент.

    Что запатентовано

    Запатентован метод обучения Алгоритма Машинного Обучения (MLA) с использованием Transfer Learning (TL). Суть изобретения — научить модель (называемую TL-based MLA) предсказывать, каким был бы Коллаборативный Эмбеддинг элемента (вектор, основанный на поведении), используя в качестве входных данных только контент этого элемента (например, сырой текст). Это позволяет применять методы коллаборативной фильтрации даже при отсутствии истории взаимодействий.

    Как это работает

    Система использует два основных типа моделей. Первая (SVD-based MLA) генерирует «эталонные» (Target Collaborative Embeddings) для элементов с богатой историей взаимодействий. Эти эмбеддинги служат Ground Truth. Вторая (TL-based MLA) обучается предсказывать эти эталонные эмбеддинги, получая на вход только контент (текст) этих же элементов. Цель обучения — минимизировать разницу (Penalty Score). После обучения TL-based MLA может генерировать Предсказанные Коллаборативные Эмбеддинги (Predicted Collaborative Embeddings) для новых элементов, используя только их текст.

    Актуальность для SEO

    Высокая. Проблема «холодного старта» критична для всех современных рекомендательных систем, включая Яндекс.Дзен (который упоминается в патенте). Использование Transfer Learning для переноса знаний из поведенческих данных в контентные модели является передовым подходом в области Information Retrieval и Machine Learning.

    Важность для SEO

    Влияние на SEO значительно (7.5/10). Патент напрямую описывает механизмы рекомендательных систем (например, Яндекс.Дзен), а не основного веб-поиска. Однако он раскрывает, как Яндекс технически связывает текстовое содержание документа с прогнозируемым поведением пользователей. Для SEO-специалистов, работающих с контентными проектами или оптимизацией под персонализированные ленты, это критически важно, так как патент показывает механизм, позволяющий новому контенту быстро получить охват, если его текст соответствует паттернам успешного контента.

    Детальный разбор

    Термины и определения

    Collaborative Embedding (Коллаборативный Эмбеддинг)
    Векторное представление элемента (Item Embedding) или пользователя (User Embedding), сгенерированное на основе матрицы взаимодействий пользователь-элемент. Отражает сходства, основанные на поведении пользователей.
    Digital Item (Цифровой Элемент)
    Единица контента в рекомендательной системе (статья, новость, видео, товар).
    Other MLA / SVD-based MLA (Другой MLA / MLA на основе SVD)
    Алгоритм коллаборативной фильтрации (например, Singular Value Decomposition), который генерирует Target Collaborative Embeddings на основе матрицы взаимодействий. Требует достаточного количества данных.
    Other User Embedding (Другой Эмбеддинг Пользователя)
    Эмбеддинг пользователя, сгенерированный (реконструированный) Second Other MLA специально для использования в паре с Предсказанными Коллаборативными Эмбеддингами элементов (Claim 5).
    Penalty Score (Штрафная Оценка)
    Метрика, измеряющая разницу (ошибку) между Predicted и Target эмбеддингами во время обучения TL-based MLA. Используется для корректировки модели.
    Predicted Collaborative Embedding (Предсказанный Коллаборативный Эмбеддинг)
    Эмбеддинг элемента, сгенерированный TL-based MLA на основе контента (текста) элемента. Является аппроксимацией Target Collaborative Embedding.
    Raw Textual Data (Сырые текстовые данные)
    Текстовый контент документа. Упоминается в патенте как основной тип входных данных для TL-based MLA (Claim 2).
    Target Collaborative Embedding (Целевой Коллаборативный Эмбеддинг)
    Эталонный эмбеддинг элемента, сгенерированный SVD-based MLA на основе достаточного количества исторических данных о взаимодействиях. Используется как Ground Truth для обучения TL-based MLA.
    Third MLA / Decision-tree based MLA (Третий MLA)
    Основная модель ранжирования (например, CatBoost, упомянутый в описании), которая использует различные признаки, включая параметры, рассчитанные на основе эмбеддингов, для определения финального порядка выдачи (Claim 5, 7).
    TL-based MLA (MLA на основе Transfer Learning)
    Основной алгоритм изобретения. Модель, обученная предсказывать Target Collaborative Embedding, используя на входе только контент элемента.

    Ключевые утверждения (Анализ Claims)

    Патент защищает метод обучения модели для предсказания коллаборативных эмбеддингов на основе контента и метод использования этих предсказаний в ранжировании.

    Claim 1 (Независимый пункт): Описывает процесс обучения основного MLA (TL-based MLA).

    1. Формируется обучающий набор для тренировочного элемента (Training Item), для которого имеется достаточно исторических взаимодействий.
    2. С помощью «Other MLA» (SVD-based) генерируется Target Collaborative Embedding на основе этих взаимодействий.
    3. Обучающий набор включает контент элемента (Input) и его Target Collaborative Embedding (Target).
    4. В ходе итерации обучения: Контент элемента подается на вход TL-based MLA.
    5. TL-based MLA генерирует Predicted Collaborative Embedding.
    6. Вычисляется Penalty Score путем сравнения Predicted и Target эмбеддингов.
    7. Параметры TL-based MLA корректируются для повышения сходства между предсказанием и целью.

    Ядро изобретения — это обучение модели (TL MLA) имитировать вывод поведенческой модели (SVD MLA), используя при этом другой тип входных данных (контент вместо матрицы взаимодействий).

    Claim 5 (Зависимый от 1): Описывает применение обученной модели в процессе ранжирования рекомендаций (In-Use Phase).

    1. Система получает запрос на рекомендацию для пользователя.
    2. Определяется набор потенциальных элементов, включающий (i) элементы с историей и (ii) новые элементы (Cold Start).
    3. Извлекаются эмбеддинги элементов:
      • Для (i): Collaborative Embedding (от SVD MLA).
      • Для (ii): Predicted Collaborative Embedding (от TL MLA).
    4. Извлекаются эмбеддинги пользователя. Критически важно, что используются два типа:
      • User Collaborative Embedding (от SVD MLA).
      • Other User Embedding (от Second Other MLA).
    5. Генерируются признаки для ранжирования путем перемножения (Product) соответствующих эмбеддингов:
      • Для (i): (Collaborative Embedding) * (User Collaborative Embedding).
      • Для (ii): (Predicted Collaborative Embedding) * (Other User Embedding).
    6. Эти признаки подаются на вход «Third MLA» (основной ранжирующей модели) для финального ранжирования.

    Этот пункт описывает сложную гибридную систему, которая использует разные пары векторов для расчета релевантности в зависимости от зрелости контента.

    Где и как применяется

    Изобретение применяется в рамках Рекомендательных Систем (например, Яндекс.Дзен, который показан на FIG. 10) и затрагивает несколько слоев архитектуры, преимущественно в офлайн-обработке и на финальных стадиях ранжирования.

    Офлайн-процессы (Offline Processing) и Индексация
    Большая часть работы происходит офлайн:

    • Генерация эталонов: SVD-based MLA обрабатывает исторические матрицы взаимодействий для генерации Target Collaborative Embeddings и User Collaborative Embeddings.
    • Обучение TL MLA: Происходит обучение TL-based MLA предсказывать эталонные эмбеддинги на основе контента (текста).
    • Генерация предсказаний: Обученный TL-based MLA используется для генерации Predicted Collaborative Embeddings для всех элементов, особенно новых. Эти эмбеддинги сохраняются в индексе.
    • Реконструкция пользовательских эмбеддингов: Second Other MLA используется для генерации Other User Embeddings, оптимизированных для работы с Predicted Collaborative Embeddings.

    RANKING – Ранжирование
    На этапе ранжирования (онлайн) система использует предварительно рассчитанные эмбеддинги для генерации признаков.

    • Feature Extraction: Для каждой пары (Пользователь, Элемент-кандидат) система вычисляет параметры релевантности (скалярное произведение соответствующих эмбеддингов), как описано в Claim 5.
    • Финальное ранжирование: Third MLA (например, CatBoost) использует эти параметры как признаки для определения итогового ранга элемента в рекомендательной ленте.

    На что влияет

    • Типы контента: Влияет на все типы контента, из которых можно извлечь сырой текст (Raw Textual Data) — статьи, новости, блоги.
    • Специфические элементы: Наибольшее влияние оказывается на новые, свежие или редкие (long-tail) элементы, для которых еще не накоплена статистика взаимодействий (Cold Start). Алгоритм позволяет им сразу конкурировать с элементами, имеющими богатую историю.

    Когда применяется

    • Условия применения: Алгоритм применяется для генерации признаков ранжирования при каждом запросе на формирование рекомендательной ленты.
    • Триггеры активации TL MLA: TL-based MLA используется для генерации Predicted Collaborative Embedding, когда у элемента недостаточно данных (Data Sparsity) для надежной работы SVD-based MLA. Однако, патент (Claim 8) также предполагает, что предсказанные эмбеддинги могут генерироваться и использоваться даже для элементов с достаточной историей, как дополнительные признаки.

    Пошаговый алгоритм

    Процесс А: Обучение TL-based MLA (Офлайн)

    1. Выборка данных: Отбор тренировочных элементов (Training Items), имеющих достаточное количество исторических взаимодействий.
    2. Генерация эталонов (SVD): Применение SVD-based MLA к матрице взаимодействий для генерации Target Collaborative Embeddings для выбранных элементов.
    3. Подготовка входа (Контент): Извлечение сырого текста (Raw Textual Data) из тренировочных элементов.
    4. Итерация обучения:
      • Подача текста на вход TL-based MLA.
      • Генерация Predicted Collaborative Embedding.
      • Сравнение Predicted и Target эмбеддингов, вычисление Penalty Score.
      • Корректировка весов TL-based MLA (например, методом обратного распространения ошибки) для минимизации Penalty Score.

    Процесс Б: Применение в ранжировании (Онлайн/Офлайн)

    1. Предварительная обработка (Офлайн/Индексация):
      • Для новых элементов (Cold Start): Генерация Predicted Collaborative Embeddings с помощью обученного TL-based MLA на основе их текста.
      • Для известных элементов: Использование Collaborative Embeddings, сгенерированных SVD-based MLA.
    2. Обработка запроса (Онлайн): Получение запроса на рекомендацию для пользователя.
    3. Извлечение эмбеддингов пользователя: Получение User Collaborative Embedding и Other User Embedding для данного пользователя.
    4. Генерация признаков (Feature Generation): Для каждого элемента-кандидата вычисление параметров релевантности (произведение):
      • Параметр 1 (для известных элементов): (Collaborative Embedding) * (User Collaborative Embedding).
      • Параметр 2 (для новых элементов): (Predicted Collaborative Embedding) * (Other User Embedding).
    5. Ранжирование: Подача сгенерированных параметров в качестве признаков в Third MLA (например, CatBoost) для финального ранжирования списка рекомендаций.

    Какие данные и как использует

    Данные на входе

    • Контентные факторы: Ключевые данные для работы TL-based MLA. В патенте явно упоминается Raw Textual Data (сырые текстовые данные, Claim 2), извлеченные из контента элемента. Это основа для предсказания эмбеддинга.
    • Поведенческие факторы: Критически важные данные для генерации эталонов (Ground Truth). Используется история взаимодействий пользователь-элемент (клики, лайки, время просмотра, скроллинг и т.д.) для построения матрицы взаимодействий, которая подается на вход SVD-based MLA.

    Какие метрики используются и как они считаются

    • Embeddings (Эмбеддинги): Низкоразмерные векторные представления элементов и пользователей. Генерируются двумя способами: на основе поведения (SVD-based MLA) и на основе контента (TL-based MLA).
    • Penalty Score (Штрафная Оценка): Метрика, используемая в функции потерь для обучения TL-based MLA. Рассчитывается как мера различия между Predicted и Target эмбеддингами.
    • Ranking Parameters (Параметры Ранжирования): Признаки, подаваемые в финальную модель ранжирования (Third MLA). Рассчитываются как произведение (Product) между вектором пользователя и вектором элемента. Этот параметр отражает степень соответствия (similarity) между пользователем и элементом в пространстве эмбеддингов.

    Выводы

    1. Контент используется для предсказания поведения: Ключевой вывод — Яндекс обладает технологией, которая математически связывает текстовое содержание документа с ожидаемым поведением пользователей (коллаборативными сигналами). TL-based MLA учится находить в тексте паттерны, которые коррелируют с высоким вовлечением.
    2. Поведение является эталоном (Ground Truth): Коллаборативные эмбеддинги, основанные на реальных взаимодействиях (SVD), рассматриваются как истинная мера релевантности. Цель анализа контента — максимально точно аппроксимировать этот эталон.
    3. Решение проблемы «Холодного старта»: Патент предоставляет конкретное решение для мгновенной оценки качества нового контента. Новые документы могут ранжироваться эффективно с момента их появления, не дожидаясь накопления статистики.
    4. Связь контентного и коллаборативного подходов: Изобретение стирает грань между Content-Based Filtering и Collaborative Filtering. Контентный анализ используется для генерации коллаборативных сигналов.
    5. Сложная гибридная архитектура: Ранжирование использует сложный гибридный подход с несколькими типами эмбеддингов (SVD-сгенерированные и предсказанные) и соответствующими им пользовательскими эмбеддингами (User Collaborative и Other User Embedding).

    Практика

    Best practices (это мы делаем)

    Рекомендации наиболее актуальны для оптимизации под рекомендательные системы Яндекса (Дзен, Новости) и персонализированные ленты.

    • Анализ текстовых паттернов успешного контента: Необходимо идентифицировать контент в вашей нише, который стабильно получает позитивные взаимодействия. Анализируйте их текст, структуру, используемые QBST-фразы и тематический охват. Система ищет корреляции между текстом и успехом.
    • Оптимизация нового контента под успешные паттерны: При создании новых материалов стремитесь соответствовать текстовым характеристикам ранее успешного контента. Если ваш текст будет похож на текст статей, которые исторически нравятся пользователям, TL-based MLA с большей вероятностью присвоит вашему контенту благоприятный Predicted Collaborative Embedding.
    • Обеспечение полноты и качества текста: Поскольку система использует сырой текст для прогнозирования (Claim 2), важно обеспечить максимально полное и качественное текстовое содержание. Для нетекстового контента (видео) критически важны качественные текстовые описания или транскрипции.

    Worst practices (это делать не надо)

    • Публикация «тонкого» контента (Thin Content): Документы с малым количеством текста или неинформативным текстом затрудняют работу TL-based MLA. Система не сможет точно предсказать коллаборативный эмбеддинг, что снижает шансы на успешное ранжирование на этапе «холодного старта».
    • Использование кликбейта и обмана ожиданий: Если содержание не соответствует ожиданиям, реальные поведенческие факторы (быстрые отказы, дизлайки) быстро скорректируют оценку. Система рассчитана на прогнозирование реального поведения, а не на поощрение манипуляций.
    • Имитация паттернов низкокачественного контента: Если текст похож на материалы, которые пользователи исторически игнорируют или оценивают негативно, новый контент сразу получит низкий прогнозируемый скор.

    Стратегическое значение

    Патент подтверждает стратегический фокус Яндекса на глубокую интеграцию контентного анализа и поведенческих данных в рекомендательных системах. Он показывает, что для успешного продвижения на таких платформах необходимо не просто создавать качественный текст, но и понимать, как этот текст будет интерпретирован системой в контексте существующих поведенческих паттернов. Стратегия должна фокусироваться на создании контента, который генерирует эмбеддинг, близкий к эмбеддингам материалов, которые уже потребляет целевая аудитория.

    Практические примеры

    Сценарий: Запуск новой статьи в Яндекс.Дзен

    1. Анализ (SEO-специалист): Специалист анализирует нишу «Умный дом». Он замечает, что статьи, содержащие термины «сценарии автоматизации», «Zigbee протокол» и включающие пошаговые инструкции, получают высокий процент дочитываний (успешные Training Items).
    2. Создание контента (SEO-специалист): Создается новая статья «Настройка Zigbee датчиков в Home Assistant: 5 сценариев». Текст оптимизируется под выявленные успешные паттерны.
    3. Индексация (Яндекс): Статья публикуется. Статистики по ней нет (Cold Start).
    4. Прогнозирование (Яндекс): Яндекс применяет TL-based MLA. Модель анализирует текст (Raw Textual Data) и обнаруживает сходство с текстовыми паттернами ранее успешных статей про умный дом.
    5. Результат (Яндекс): Модель генерирует благоприятный Predicted Collaborative Embedding.
    6. Ранжирование (Яндекс): Third MLA использует этот эмбеддинг для расчета релевантности (в паре с Other User Embedding). Статья сразу начинает активно рекомендоваться целевой аудитории, получая хороший стартовый охват.

    Вопросы и ответы

    Что такое проблема «холодного старта» (Cold Start) и как этот патент ее решает?

    Проблема «холодного старта» возникает, когда система не знает, кому рекомендовать новый контент, так как по нему еще нет истории взаимодействий (кликов, лайков). Стандартная коллаборативная фильтрация в таких случаях не работает. Патент решает эту проблему путем прогнозирования поведенческого вектора (Collaborative Embedding) на основе анализа текста статьи. Система предполагает, что если текст новой статьи похож на текст уже популярных статей, то и взаимодействовать с ней будут схожим образом.

    Означает ли это, что поведенческие факторы больше не нужны?

    Нет, поведенческие факторы критически важны. Они используются как эталон (Ground Truth) для обучения системы прогнозирования (TL-based MLA). Предсказанный эмбеддинг используется в основном на старте, пока реальных данных мало. По мере накопления реальной статистики система будет больше полагаться на фактические взаимодействия пользователей с контентом.

    В патенте упоминаются SVD-based MLA и TL-based MLA. В чем разница?

    SVD-based MLA (на основе Singular Value Decomposition) — это стандартный алгоритм коллаборативной фильтрации. Он генерирует эмбеддинги на основе анализа того, кто и с чем взаимодействовал (матрица взаимодействий). TL-based MLA (на основе Transfer Learning) — это модель, описанная в патенте. Она генерирует эмбеддинги на основе анализа содержания (текста) элемента. TL-based MLA обучается имитировать результаты работы SVD-based MLA.

    Применяется ли этот патент в основном поиске Яндекса?

    Патент явно описывает применение в рамках рекомендательной системы (Content Recommendation System), такой как Яндекс Дзен (упомянут в описании FIG. 10). Он не описывает алгоритмы ранжирования основного веб-поиска. Однако технология использования анализа контента для предсказания поведенческих метрик является универсальной и может применяться в различных сервисах Яндекса для решения проблемы недостатка данных.

    Как я могу использовать этот патент для оптимизации контента?

    Ключевая стратегия — это глубокий анализ успешных публикаций в вашей тематике. Определите, какие текстовые паттерны, структура, лексика и подача коррелируют с высоким вовлечением. При создании нового контента старайтесь соответствовать этим паттернам. Это повысит вероятность того, что система присвоит вашей новой статье благоприятный прогнозируемый эмбеддинг и даст ей хороший стартовый охват.

    Какие данные используются для прогнозирования эмбеддинга?

    В патенте (Claim 2) в качестве основного входа для TL-based MLA указан сырой текстовый контент (raw textual data) элемента. Это означает, что система анализирует непосредственно слова и фразы в тексте статьи для генерации прогноза о поведении пользователей.

    Что такое «Target Collaborative Embedding»?

    Это эталонный поведенческий вектор. Он рассчитывается стандартными методами (SVD) для контента, по которому уже есть много статистики взаимодействий. Это тот результат, который система прогнозирования (TL-based MLA) пытается достичь, анализируя текст. Чем ближе предсказание к этому эталону, тем лучше обучена модель.

    В патенте упоминаются два разных эмбеддинга пользователя (User Collaborative Embedding и Other User Embedding). Зачем?

    Это важный технический нюанс (Claim 5). User Collaborative Embedding — это стандартный вектор пользователя, основанный на его истории, который хорошо работает с реальными векторами элементов. Other User Embedding — это скорректированный (реконструированный) вектор пользователя, который лучше работает в паре с предсказанными (а не реальными) векторами элементов. Система использует разные пары векторов в зависимости от зрелости контента для повышения точности рекомендаций.

    Если у документа уже есть история, используется ли предсказанный эмбеддинг?

    Основное назначение предсказанного эмбеддинга — это работа с документами без истории. Если история есть, система предпочтет использовать «истинный» коллаборативный эмбеддинг, рассчитанный через SVD. Однако в патенте (Claim 8) упоминается возможность использования предсказанного эмбеддинга как дополнительного признака ранжирования даже для документов с историей.

    Работает ли этот механизм для видео или картинок?

    В патенте в качестве основного входа для прогнозирования указан сырой текст. Для видео или картинок этот механизм может работать, только если у них есть качественное текстовое описание или транскрипция. Именно этот текст будет проанализирован для предсказания того, насколько контент может быть востребован пользователями.

    Навигация
    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх
    Telegram
    © 2025 SEO HARDCORE

    Type above and press Enter to search. Press Esc to cancel.