Close Menu
    Telegram
    SEO HARDCORE
    • Разборы патентов
      • Патенты Google
      • Патенты Яндекс
    • Скоро
      SEO инструменты
    • Скоро
      SEO аналитика
    SEO HARDCORE
    Разборы патентов • Патенты Яндекс

    Как Яндекс решает проблему «холодного старта» в рекомендательных системах, предсказывая поведенческие сигналы по тексту контента

    СПОСОБ ОБУЧЕНИЯ АЛГОРИТМА МАШИННОГО ОБУЧЕНИЯ ФОРМИРОВАНИЮ ПРОГНОЗИРУЕМОГО СОВМЕСТНОГО ВЕКТОРНОГО ПРЕДСТАВЛЕНИЯ ДЛЯ ЦИФРОВОГО ЭЛЕМЕНТА (METHOD FOR TRAINING MACHINE LEARNING ALGORITHM FOR FORMATION OF PREDICTED JOINT VECTOR REPRESENTATION FOR DIGITAL ELEMENT)
    • RU2778382C2
    • Yandex LLC
    • 2022-08-18
    • 2020-09-15
    2022 Обучение моделей Патенты Яндекс Рекомендательные системы Холодный старт Яндекс Дзен

    Яндекс использует Transfer Learning для решения проблемы «холодного старта» в рекомендательных системах (например, Дзен). Когда у нового контента мало взаимодействий, система не может применить коллаборативную фильтрацию. Патент описывает, как Яндекс обучает модель предсказывать коллаборативные эмбеддинги (поведенческие векторные представления), используя только текст статьи. Это позволяет рекомендовать новый контент так, как если бы у него уже была богатая история взаимодействий.

    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх

    Описание

    Какую задачу решает

    Патент решает фундаментальную проблему рекомендательных систем — проблему «холодного старта» (Cold Start) и разреженности данных. Традиционные методы коллаборативной фильтрации (Collaborative Filtering) эффективно работают только тогда, когда накоплено достаточное количество взаимодействий пользователей с элементом контента. Если контент новый или нишевый, данных о взаимодействиях недостаточно (разреженные данные), и система не может точно определить, кому его рекомендовать.

    Что запатентовано

    Запатентован способ обучения алгоритма машинного обучения (MLA) с использованием Transfer Learning (TL) для прогнозирования совместного векторного представления (коллаборативного эмбеддинга) элемента контента. Суть изобретения заключается в обучении модели (TL MLA) предсказывать, каким был бы поведенческий (коллаборативный) эмбеддинг элемента, используя в качестве входных данных только контент этого элемента (например, текст), а не данные о взаимодействиях.

    Как это работает

    Система использует подход «учитель-ученик». В роли «учителя» выступает стандартная модель коллаборативной фильтрации (например, SVD MLA), которая генерирует качественные эмбеддинги (Целевые векторные представления) для «теплого» контента (с богатой историей взаимодействий). Модель-«ученик» (TL MLA) обучается на этом «теплом» контенте: на вход она получает текст элемента, а ее задача — сгенерировать Прогнозируемое векторное представление, максимально близкое к целевому (SVD) представлению. После обучения TL MLA способна генерировать коллаборативные эмбеддинги для «холодного» контента, используя только его текст. Эти прогнозируемые эмбеддинги затем используются в финальной ранжирующей модели (например, CatBoost) для формирования рекомендаций.

    Актуальность для SEO

    Высокая. Решение проблемы «холодного старта» критически важно для динамичных платформ типа Яндекс Дзен (упомянут в патенте). Использование Transfer Learning для переноса знаний из коллаборативных данных в контентные модели является передовым подходом в современных рекомендательных системах и технологиях поиска.

    Важность для SEO

    Влияние на SEO среднее (6/10). Патент напрямую относится к рекомендательным системам, а не к основному веб-поиску. Однако он имеет высокое стратегическое значение, так как демонстрирует техническую возможность Яндекса предсказывать сигналы вовлеченности и качества (выраженные через коллаборативные эмбеддинги) исключительно на основе анализа текста. Это подтверждает важность качества текстового контента для видимости на платформах Яндекса, особенно для свежего или нишевого контента.

    Детальный разбор

    Термины и определения

    Алгоритм MLA на основе метода TL (TL MLA)
    Модель-«ученик» (в патенте обозначена как 170). Обучается предсказывать коллаборативный эмбеддинг элемента, используя только его контент (текст). Основана на Transfer Learning.
    Другой алгоритм MLA (SVD MLA)
    Модель-«учитель» (в патенте обозначена как 160). Стандартный алгоритм коллаборативной фильтрации, например, на основе SVD (Singular Value Decomposition). Генерирует эмбеддинги на основе матрицы взаимодействий пользователь-элемент.
    Второй другой алгоритм MLA (SVD MLA 2)
    Вспомогательная модель (в патенте обозначена как 165). Используется для «реконструкции» пользовательского векторного представления на основе прогнозируемых (а не фактических) векторных представлений элементов.
    Третий алгоритм MLA (Ranking MLA)
    Основная ранжирующая модель (в патенте обозначена как 140). Например, модель на основе дерева решений (CatBoost). Использует параметры (произведения векторов) в качестве признаков для финального ранжирования контента.
    Совместное векторное представление (Коллаборативный эмбеддинг)
    Векторное представление (embedding) элемента или пользователя, сформированное на основе анализа взаимодействий (кто с чем взаимодействовал). Отражает скрытые предпочтения.
    Целевое совместное векторное представление
    «Истинный» коллаборативный эмбеддинг, сгенерированный моделью SVD MLA для элементов с достаточной историей взаимодействий. Используется как цель (Ground Truth) при обучении TL MLA.
    Прогнозируемое совместное векторное представление
    Эмбеддинг, сгенерированный моделью TL MLA на основе контента элемента. Является аппроксимацией Целевого представления.
    Первичные текстовые данные
    Текстовый контент элемента (статьи, новости), который используется как входные данные для TL MLA.

    Ключевые утверждения (Анализ Claims)

    Патент фокусируется на методе обучения модели для решения проблемы разреженности данных в коллаборативной фильтрации.

    Claim 1 (Независимый пункт): Описывает процесс обучения алгоритма MLA (TL MLA).

    1. Формирование обучающего набора. Это ключевой этап. Для обучающего элемента генерируется Целевое совместное векторное представление с помощью Другого алгоритма MLA (SVD MLA).
    2. Критическое условие: Это делается только для элементов, у которых достаточно предыдущих пользовательских взаимодействий для работы SVD MLA.
    3. Обучающий набор состоит из: (а) Обучающего элемента (Input, например, текст) и (б) Целевого представления (Output/Target).
    4. Итерация обучения:
      • Обучающий элемент подается на вход TL MLA.
      • TL MLA формирует Прогнозируемое совместное векторное представление.
      • Вычисляется Оценка штрафа путем сравнения Прогнозируемого и Целевого представлений.
      • TL MLA корректируется (например, методом обратного распространения ошибки) для увеличения сходства прогноза и цели.

    Claim 5 (Зависимый от п.1): Описывает применение обученной модели в реальной системе рекомендаций.

    1. Получение запроса на рекомендацию для пользователя.
    2. Определение множества потенциальных элементов. Оно делится на две группы:
      • Набор элементов (Set A): Достаточно взаимодействий («теплые»).
      • Другой элемент (Set B): Недостаточно взаимодействий («холодные»).
    3. Получение векторных представлений Элементов:
      • Для Set A: Используется стандартное Совместное представление (от SVD MLA).
      • Для Set B: Используется Прогнозируемое представление (от TL MLA).
    4. Получение векторных представлений Пользователя. Система использует два разных вектора пользователя:
      • Пользовательское совместное векторное представление (от SVD MLA 160).
      • Другое пользовательское векторное представление (от Второго другого алгоритма MLA, SVD MLA 2 (165)). Этот вектор реконструируется на основе Прогнозируемых представлений элементов.
    5. Формирование параметров (признаков ранжирования) путем перемножения векторов из одного пространства:
      • Для Set A: (Совместное представление элемента) * (Пользовательское совместное представление).
      • Для Set B: (Прогнозируемое представление элемента) * (Другое пользовательское представление).
    6. Эти параметры подаются на вход Третьему алгоритму MLA (Ranking MLA, например, CatBoost) для финального ранжирования.

    Где и как применяется

    Изобретение применяется в Системе Рекомендации Контента (например, Яндекс Дзен) и затрагивает этапы офлайн-обучения и онлайн-ранжирования. Оно не относится напрямую к архитектуре стандартного веб-поиска.

    Офлайн-процессы (Аналог INDEXING & FEATURE EXTRACTION в рекомендациях)

    • Обучение SVD MLA (160): На основе исторических данных о взаимодействиях обучается базовая модель коллаборативной фильтрации. Она генерирует Целевые векторные представления для «теплых» элементов и Пользовательские совместные представления.
    • Обучение TL MLA (170) (Основной процесс патента): Обучение модели Transfer Learning предсказывать эмбеддинги по тексту, используя результаты SVD MLA как цель.
    • Генерация эмбеддингов: Предварительный расчет и сохранение в базе данных всех типов эмбеддингов (Целевых, Прогнозируемых, Пользовательских) до получения запроса от пользователя.

    Онлайн-процессы (Аналог RANKING в рекомендациях)

    • Получение запроса и выбор кандидатов.
    • Извлечение признаков (Feature Retrieval): Система извлекает из базы данных необходимые эмбеддинги для пользователя и для элементов-кандидатов (выбирая между Целевым или Прогнозируемым в зависимости от «теплоты» элемента).
    • Расчет параметров: Вычисление произведений (например, скалярного произведения) между векторами пользователя и векторов элементов.
    • Ранжирование: Подача рассчитанных параметров и других признаков в основную ранжирующую модель (Ranking MLA / CatBoost) для определения финального порядка рекомендаций.

    На что влияет

    • Специфические типы контента: Наибольшее влияние оказывается на новый, свежий или нишевый контент («холодные» элементы), у которого мало или нет истории взаимодействий. Этот механизм позволяет такому контенту быстрее набирать охват.
    • Форматы контента: Механизм сильно зависит от наличия качественных Первичных текстовых данных, так как именно они являются входом для TL MLA. Текстовые статьи и новости получают наибольшее преимущество.

    Когда применяется

    Алгоритм применяется при обработке запросов на рекомендации. Ключевое условие активации механизма прогнозирования:

    • Триггер активации: Когда для элемента контента недостаточно данных о взаимодействиях пользователь-элемент для формирования надежного эмбеддинга стандартным методом коллаборативной фильтрации (SVD MLA). В этом случае система использует TL MLA для генерации Прогнозируемого эмбеддинга по тексту.
    • Гибридный режим (Claim 8): Патент также описывает возможность использования Прогнозируемого эмбеддинга даже для «теплых» элементов в дополнение к стандартному SVD эмбеддингу.

    Пошаговый алгоритм

    Процесс А: Обучение модели TL MLA (Офлайн)

    1. Подготовка данных (SVD MLA): Обработка исторических взаимодействий пользователь-элемент с помощью SVD MLA (160) для генерации эмбеддингов.
    2. Фильтрация обучающей выборки: Отбор «теплых» элементов, для которых история взаимодействий достаточна и SVD MLA сгенерировал надежные эмбеддинги.
    3. Формирование обучающих наборов: Для каждого «теплого» элемента создается пара: (а) Входные данные: Первичные текстовые данные элемента; (б) Цель: Целевое совместное векторное представление (эмбеддинг от SVD MLA).
    4. Итерация обучения TL MLA (170):
      1. Ввод текста в TL MLA.
      2. Генерация Прогнозируемого векторного представления.
      3. Сравнение Прогнозируемого и Целевого представлений и Расчет Оценки штрафа.
      4. Корректировка весов TL MLA для минимизации штрафа.

    Процесс Б: Применение модели (Офлайн/Nearline)

    1. Идентификация «холодного» элемента: Определение элемента, для которого нет Целевого представления от SVD MLA.
    2. Извлечение контента: Получение Первичных текстовых данных этого элемента.
    3. Генерация эмбеддинга: Ввод текста в обученную TL MLA для получения Прогнозируемого совместного векторного представления.
    4. Сохранение: Сохранение эмбеддинга в базе данных для использования при ранжировании.

    Процесс В: Ранжирование (Онлайн)

    1. Получение запроса на рекомендацию для Пользователя U.
    2. Извлечение векторов пользователя: Получение Совместного вектора (от SVD MLA 160) и Другого вектора (реконструированного SVD MLA 2 (165)) для Пользователя U.
    3. Обработка кандидатов: Для каждого элемента-кандидата (I):
      1. Определение типа элемента («теплый» или «холодный»).
      2. Извлечение соответствующего вектора элемента (Целевого или Прогнозируемого).
      3. Расчет параметров (признаков ранжирования): Перемножение вектора элемента с соответствующим вектором пользователя (как описано в анализе Claim 5).
    4. Ранжирование: Подача параметров в Третий MLA (CatBoost) для определения финальной оценки релевантности.

    Какие данные и как использует

    Данные на входе

    • Поведенческие факторы (Взаимодействия пользователь-элемент): Данные из логов (клики, просмотры, лайки, время взаимодействия, прокрутки и т.д.). Они критически важны для обучения «учителя» (SVD MLA) и формирования матрицы взаимодействий.
    • Контентные факторы (Текстовые): Первичные текстовые данные элементов. Это единственный вход для модели-«ученика» (TL MLA) как на этапе обучения, так и на этапе применения.

    Какие метрики используются и как они считаются

    • Совместные векторные представления (Эмбеддинги): Низкоразмерные векторы, генерируемые моделями SVD MLA (160 и 165). Они фиксируют семантику и предпочтения на основе взаимодействий.
    • Прогнозируемые совместные векторные представления: Векторы, генерируемые TL MLA (170) на основе текста, аппроксимирующие коллаборативные эмбеддинги.
    • Оценка штрафа: Метрика сравнения (функция потерь) между прогнозируемым и целевым векторами. Используется для обучения TL MLA. Конкретная метрика в патенте не указана.
    • Параметры (Признаки ранжирования): Результат произведения между вектором пользователя и вектором элемента. Упоминаются скалярное произведение и евклидово расстояние. Используются как входные данные для финальной модели ранжирования (CatBoost).
    • Алгоритмы Машинного Обучения: Используются SVD, Transfer Learning (вероятно, нейросеть для анализа текста) и градиентный бустинг (CatBoost).

    Выводы

    1. Текст как предиктор вовлеченности: Ключевой вывод — Яндекс разработал и применяет технологию, которая позволяет предсказывать пользовательскую вовлеченность (выраженную через коллаборативные эмбеддинги) исключительно на основе анализа текста контента.
    2. Решение проблемы «холодного старта»: Система позволяет новому или нишевому контенту получать видимость в рекомендательных системах (Дзен) до того, как он накопит статистику взаимодействий. Качество и содержание текста напрямую влияют на начальный охват.
    3. Transfer Learning как мост между контентом и поведением: Патент демонстрирует успешное применение Transfer Learning для переноса знаний из области коллаборативной фильтрации (поведение) в область анализа контента (текст). Модель учится распознавать текстовые паттерны успешного контента.
    4. Гибридный подход к ранжированию: Система ранжирования использует как фактические коллаборативные сигналы (для «теплого» контента), так и прогнозируемые (для «холодного»). Более того, для «теплого» контента могут использоваться оба типа сигналов одновременно (Claim 8), что повышает надежность системы.
    5. Сложная архитектура эмбеддингов: Система использует несколько разных типов эмбеддингов для пользователей и элементов (SVD-based, TL-based, Reconstructed User Vectors), которые взаимодействуют в финальной ранжирующей модели (CatBoost).

    Практика

    Best practices (это мы делаем)

    Хотя патент фокусируется на рекомендательных системах (Дзен), его принципы важны для понимания того, как Яндекс оценивает контент в целом.

    • Обеспечение высокого качества и ясности текста: Поскольку Первичные текстовые данные являются единственным входом для прогнозирования начальной вовлеченности (TL MLA), качество текста критически важно. Текст должен быть четким, информативным и соответствовать тематике, чтобы модель могла сгенерировать релевантный эмбеддинг.
    • Анализ и эмуляция успешных паттернов (для Дзена): Анализируйте, какой контент в вашей нише генерирует наибольшее вовлечение. Создавайте новый контент, который текстуально (по стилю, лексике, структуре) похож на исторически успешные материалы. Это позволит TL MLA распознать знакомые паттерны и присвоить новому элементу сильный прогнозируемый эмбеддинг.
    • Семантическая полнота контента: Создавайте контент, который полностью раскрывает тему и использует релевантные QBST фразы. Если ваш текст семантически похож на тексты, которые исторически генерировали сильные коллаборативные сигналы («теплый» контент), модель TL MLA с большей вероятностью сгенерирует для вас сильный прогнозируемый эмбеддинг.
    • Чистая верстка для корректного парсинга: Убедитесь, что основной контент легко извлекается парсерами Яндекса. Наличие шума в извлеченных «первичных текстовых данных» может ухудшить качество прогнозируемого эмбеддинга.

    Worst practices (это делать не надо)

    • Тонкий контент (Thin Content) и Кликбейт: Контент с малым количеством полезного текста или текст, не соответствующий заголовку, вероятно, получит слабый прогнозируемый эмбеддинг, так как он не будет похож на исторически качественный контент, удовлетворяющий пользователей.
    • Игнорирование текстовой составляющей в мультимедиа: Если контент в основном состоит из изображений или видео, отсутствие достаточного текстового описания не позволит модели TL MLA сгенерировать качественный прогноз, что затруднит «холодный старт».
    • Переоптимизация и неестественный язык: Использование текстов, написанных исключительно для роботов, может привести к генерации некорректных эмбеддингов, так как они будут отличаться от естественного языка, на котором обучалась модель, имитирующая предпочтения реальных пользователей.

    Стратегическое значение

    Патент подтверждает способность Яндекса оценивать потенциал контента до того, как получены реальные поведенческие сигналы. Это стратегически важно для SEO, так как подобные технологии могут применяться для оценки качества контента мгновенно. Приоритет Яндекса — предсказание удовлетворенности пользователя, и данный патент показывает один из механизмов, как это достигается через глубокий анализ текста и его связь с историческими данными о поведении.

    Практические примеры

    Сценарий: Продвижение новой статьи в Яндекс Дзен («Холодный старт»)

    1. Ситуация: Автор публикует статью на новую тему. Это «холодный» старт, взаимодействий нет. SVD MLA не может сгенерировать эмбеддинг.
    2. Действие системы: Активируется TL MLA. Система анализирует текст статьи.
    3. Анализ (Предположение): Текст качественный, детальный и использует терминологию, схожую с той, что используется в популярных статьях по этой тематике («теплый» контент, на котором обучалась модель).
    4. Генерация эмбеддинга: TL MLA генерирует сильное Прогнозируемое совместное векторное представление, помещая статью в векторном пространстве рядом с популярными статьями.
    5. Ранжирование: При формировании ленты система рассчитывает параметр (произведение вектора пользователя и прогнозируемого вектора статьи). Благодаря качественному эмбеддингу, параметр получается высоким для релевантной аудитории.
    6. Результат: Статья получает хороший начальный охват и быстро набирает реальные взаимодействия, переходя из «холодного» состояния в «теплое».

    Вопросы и ответы

    Этот патент описывает работу основного поиска Яндекса или рекомендательных систем?

    Патент явно описывает работу Системы рекомендации контента, примером которой является Яндекс Дзен. Механизмы коллаборативной фильтрации и решение проблемы «холодного старта» наиболее актуальны именно для таких систем. Хотя используемые технологии анализа текста могут применяться и в веб-поиске, описанная архитектура специфична для рекомендаций.

    Что такое проблема «холодного старта» и как Яндекс ее решает?

    Проблема «холодного старта» возникает, когда в системе появляется новый контент, по которому еще нет статистики взаимодействий. Традиционная коллаборативная фильтрация не может работать в таких условиях. Яндекс решает эту проблему, обучая специальную модель (TL MLA) предсказывать, каким был бы коллаборативный эмбеддинг элемента, используя только его текст. Это позволяет рекомендовать новый контент сразу после его появления.

    Что такое Совместное векторное представление (Коллаборативный эмбеддинг)?

    Это числовой вектор (эмбеддинг), который описывает элемент контента на основе того, какие пользователи с ним взаимодействовали. Если два элемента часто нравятся одним и тем же пользователям, их коллаборативные эмбеддинги будут близки в векторном пространстве. Это ключевой компонент систем, основанных на анализе предпочтений.

    Как именно текст помогает предсказать популярность контента?

    Система использует модель Transfer Learning (TL MLA), которая обучается на исторических данных. Она видит тексты, которые в прошлом стали популярными (получили сильные SVD эмбеддинги), и учится ассоциировать определенные текстовые характеристики с этими эмбеддингами. Если новый текст похож на те, что были успешны ранее, модель сгенерирует для него схожий, сильный прогнозируемый эмбеддинг.

    Что такое SVD MLA и TL MLA в этом патенте?

    SVD MLA (160) — это модель-«учитель», основанная на стандартной коллаборативной фильтрации. Она генерирует эмбеддинги на основе реальных взаимодействий. TL MLA (170) — это модель-«ученик», которая учится у SVD MLA предсказывать эти же эмбеддинги, но используя на входе только текст элемента.

    Значит ли это, что поведенческие факторы больше не важны?

    Нет, поведенческие факторы критически важны. Они являются эталоном (Ground Truth) и используются для обучения всей системы, включая модель SVD MLA, которая затем обучает TL MLA. Механизм прогнозирования (TL MLA) используется в основном тогда, когда реальных поведенческих данных еще недостаточно. Когда данные появляются, система опирается на них.

    Как этот патент влияет на мою SEO-стратегию для веб-сайта?

    Прямое влияние на ранжирование в веб-поиске этот патент не описывает. Однако он подчеркивает важность качественного, семантически богатого текстового контента для всех сервисов Яндекса. Если вы хотите, чтобы ваш сайт попадал в Дзен или другие рекомендательные блоки, необходимо уделять первостепенное внимание тексту, так как он используется для прогнозирования потенциальной вовлеченности пользователей.

    Что такое «Третий алгоритм MLA» (140), упоминаемый в патенте?

    Третий алгоритм MLA — это основная формула ранжирования, которая определяет финальный порядок контента. В патенте указано, что это модель на основе дерева решений, что в контексте Яндекса почти наверняка означает CatBoost. Она использует результаты работы SVD MLA и TL MLA (в виде перемноженных векторов) как признаки ранжирования.

    Зачем система использует два разных векторных представления для одного пользователя (Claim 5)?

    Система использует два вектора, потому что они оптимизированы для разных типов эмбеддингов элементов. Первый (Совместный, 160) совместим с Целевыми векторами элементов (от SVD). Второй (Другой, 165) реконструируется и оптимизирован для работы с Прогнозируемыми векторами элементов (от TL MLA). Для корректного расчета признаков ранжирования необходимо перемножать совместимые векторы.

    Может ли система использовать и прогнозируемый, и реальный эмбеддинг одновременно?

    Да, патент предусматривает такой вариант (Claim 8). Даже если для элемента существует реальный (Целевой) эмбеддинг от SVD, система может также рассчитать Прогнозируемый эмбеддинг от TL MLA и использовать оба в качестве отдельных признаков для финальной ранжирующей модели (CatBoost), что потенциально повышает точность.

    Навигация
    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх
    Telegram
    © 2025 SEO HARDCORE

    Type above and press Enter to search. Press Esc to cancel.