Google использует Большие Языковые Модели (LLM) для автоматической генерации синтетических обучающих данных (Задачи, Запросы и Пассажи). Эти данные применяются для обучения универсальных моделей эмбеддингов методом «Instruction Tuning». Это позволяет поисковым моделям понимать не только содержание текста, но и конкретную задачу пользователя (например, ответ на вопрос или проверка фактов), повышая точность поиска.
Описание
Какую задачу решает
Патент решает проблему нехватки больших, разнообразных и высококачественных размеченных данных, необходимых для обучения универсальных моделей текстовых эмбеддингов (General Purpose Embedding Models). Ручной сбор данных дорог, медленен, ограничен в разнообразии и может вызывать проблемы с конфиденциальностью. Изобретение позволяет автоматически генерировать необходимые данные для обучения моделей, способных выполнять широкий спектр задач информационного поиска, используя знания, заложенные в LLM.
Что запатентовано
Запатентована система для генерации синтетического набора данных (Synthetic Training Dataset, также FReT), предназначенного для инструктивной донастройки (Instruction Fine-Tuning) моделей эмбеддингов. Суть заключается в использовании Больших Языковых Моделей (LLM или Sequence Model) для генерации пар (Задача, Запрос) для неразмеченных текстовых пассажей. Система также включает механизм дистилляции знаний, где LLM используется для поиска и оценки наилучших позитивных и негативных примеров для обучения.
Как это работает
Система работает в несколько этапов:
- Сбор данных: Используется большой корпус неразмеченных пассажей (Corpus of Passages).
- Генерация Задачи и Запроса: LLM получает пассаж и демонстрационные примеры (few-shot prompts). Модель генерирует релевантную Задачу (например, «Найти ответ на вопрос») и соответствующий Запрос.
- Улучшение данных (Knowledge Distillation): Для сгенерированной пары система находит похожие пассажи (nearest neighbor passages). Вторая LLM переранжирует их, чтобы выбрать наилучший Позитивный пример (Positive Passage) и сложные Негативные примеры (Negative Passages).
- Формирование датасета: Создается синтетический набор данных из квартетов (Задача, Запрос, Позитивный пассаж, Негативный пассаж).
- Обучение: Этот датасет используется для обучения целевой модели эмбеддингов.
Актуальность для SEO
Критически высокая. Патент подан в 2024 году и опубликован в 2025. Он описывает передовые методы обучения фундаментальных моделей поиска с использованием генеративного ИИ (LLM), синтетических данных и инструктивного тюнинга. Это отражает текущую стратегию Google по интеграции возможностей LLM в поисковую инфраструктуру.
Важность для SEO
Патент имеет значительное стратегическое влияние на SEO. Он не описывает алгоритм ранжирования, но раскрывает, как обучаются модели эмбеддингов, лежащие в основе современного поиска (например, Neural Matching). Ключевой вывод — переход к эмбеддингам, настроенным на выполнение инструкций (instruction-tuned). Релевантность определяется не только семантической близостью, но и тем, насколько хорошо контент выполняет конкретную поисковую задачу (ответ на вопрос, проверка факта и т.д.).
Детальный разбор
Термины и определения
- Corpus of Passages (Корпус пассажей)
- Большая коллекция неразмеченных текстовых фрагментов (например, из веба), используемая как основа для генерации синтетических данных.
- Dual Encoder (Двойной кодировщик)
- Архитектура модели эмбеддингов, состоящая из двух частей: Query Tower (для кодирования запроса и задачи) и Document Tower (для кодирования пассажа).
- Embedding Model (Модель эмбеддингов)
- Модель, преобразующая текст в числовые векторы (эмбеддинги). Семантически похожие тексты расположены близко в векторном пространстве.
- Few-shot Prompts (Промпты с несколькими примерами)
- Входные данные для LLM, содержащие несколько демонстрационных примеров (Пассаж, Задача, Запрос), которые показывают модели, какой результат от нее ожидается.
- FReT (Few-shot Prompted Retrieval dataset)
- Название синтетического набора данных, сгенерированного описанным методом.
- Instruction Fine-Tuning (Инструктивная донастройка)
- Метод обучения модели, при котором она учится следовать инструкциям (Задачам), предоставленным вместе с запросом, для адаптации своего поведения к различным типам поиска.
- Knowledge Distillation (Дистилляция знаний)
- Процесс переноса знаний из большой модели (LLM, выступающей в роли учителя) в меньшую, более быструю модель (модель эмбеддингов).
- Positive/Negative Passages (p+/p-)
- Пассажи, извлеченные из корпуса. p+ имеет высокую релевантность сгенерированному запросу и задаче (определяется LLM). p- имеет низкую релевантность или является сложным примером (hard negative).
- Sequence Model
- В контексте патента — Большая Языковая Модель (LLM) или Большая Мультимодальная Модель (LMM), используемая для генерации данных и оценки релевантности.
- Summarize-then-Ask Prompting (SAP)
- Техника промптинга для генерации мультиязычных запросов. Модель сначала создает краткое содержание (summary) пассажа, а затем генерирует запрос на его основе.
- Task (Instruction) (Задача или Инструкция)
- Описание типа информационного поиска. Например: «Найди пассаж, который отвечает на вопрос» или «Найди пассаж, который позволяет проверить, верно ли утверждение».
Ключевые утверждения (Анализ Claims)
Claim 1 (Независимый пункт): Описывает основной метод генерации синтетического набора данных.
- Система предоставляет Sequence Model (LLM): (i) Набор few-shot prompts (демонстрационный пассаж, задача и запрос) и (ii) Множество пассажей из корпуса.
- Система получает от LLM предсказанные пары (Задача, Запрос) для этих пассажей. LLM инструктируется предсказать задачу на основе пассажа, а затем предсказать релевантный запрос для этой задачи.
- Система генерирует Synthetic Training Dataset, включающий пассажи и соответствующие предсказанные пары (Задача, Запрос).
Claim 3 (Зависимый): Детализирует процесс улучшения качества датасета (Mining и Knowledge Distillation).
- Система получает ближайшие пассажи (nearest neighbor passages) с помощью Passage Retrieval Model (Claim 2).
- Система предоставляет эти пары и ближайшие пассажи второй Sequence Model (LLM).
- Вторая LLM генерирует оценки релевантности (relevance score) для каждого пассажа.
- На основе оценок система классифицирует пассажи на Позитивные (высокая релевантность) и Негативные (низкая релевантность).
- Итоговый датасет включает (Задача, Запрос, Позитивные пассажи, Негативные пассажи).
Claim 6 (Зависимый от 3): Описывает использование сгенерированного датасета для обучения.
- Система предоставляет Embedding Model данные: пару (Задача, Запрос), Позитивные и Негативные пассажи.
- Система обучает Embedding Model размещать эмбеддинг входной пары (Задача, Запрос) ближе к Позитивным пассажам и дальше от Негативных пассажей в векторном пространстве (контрастивное обучение).
Где и как применяется
Этот патент описывает инфраструктурный процесс ОБУЧЕНИЯ (Training Pipeline) моделей, а не процесс ранжирования в реальном времени.
Влияние на архитектуру поиска:
Сгенерированные данные используются для создания моделей эмбеддингов. Эти модели затем применяются на следующих этапах:
INDEXING – Индексирование и извлечение признаков
Модели, обученные по этому патенту, используются для генерации эмбеддингов контента. Эти эмбеддинги являются «понимающими задачи» (task-aware), отражая не только семантику текста, но и то, какие задачи он может решать.
QUNDERSTANDING – Понимание Запросов
Модель, обученная методом Instruction Fine-Tuning, используется для интерпретации запроса пользователя и определения его неявной задачи (например, поиск ответа или проверка факта), что отражается в эмбеддинге запроса.
RANKING – Ранжирование (Особенно L1 Retrieval)
На этапе отбора кандидатов (Dense Retrieval) эти эмбеддинги используются для быстрого нахождения релевантных документов. Система эффективно сопоставляет запрос с документами, которые наилучшим образом выполняют подразумеваемую задачу.
На что влияет
- Типы контента и запросы: Влияет на все типы, так как цель — создать универсальную (General Purpose) модель.
- Специфические задачи: Особенно сильное влияние на сложные задачи: ответы на вопросы (question-answering), проверка фактов (fact checking), семантическое сходство.
- Мультиязычность: Патент описывает механизм Summarize-then-Ask Prompting (SAP) для генерации высококачественных мультиязычных и кросс-язычных обучающих данных, улучшая поиск на разных языках.
Когда применяется
Алгоритм применяется в офлайн-режиме во время этапов генерации обучающих данных и последующего обучения или донастройки (fine-tuning) моделей эмбеддингов Google. Он не применяется в реальном времени.
Пошаговый алгоритм
Процесс разделен на три основные фазы.
Фаза 1: Генерация синтетических данных (Запрос и Задача)
- Подготовка данных: Выборка и фильтрация пассажей из Corpus of Passages.
- Подготовка промптов: Создание демонстрационных few-shot prompts.
- Генерация пар: Подача пассажа и промптов на вход Sequence Model (LLM).
- Получение результата: LLM генерирует релевантную Задачу (t) и Запрос (q).
Фаза 2: Улучшение данных (Mining и Дистилляция)
- Извлечение соседей: Поиск ближайших пассажей (nearest neighbor passages) в корпусе для пары (t, q) с помощью Passage Retrieval Model.
- Переранжирование (Re-ranking): Вторая Sequence Model (LLM) оценивает релевантность извлеченных пассажей.
- Оценка релевантности: LLM присваивает relevance scores, используя методы вроде Query Likelihood (QL) или Relevance Classification (RC). Результаты могут объединяться через Reciprocal Rank Fusion (RRF).
- Классификация примеров: Выбор наилучшего Позитивного примера (p+) и сложных Негативных примеров (p-). Важно, что p+ может отличаться от исходного пассажа.
- Формирование датасета: Создание финального Synthetic Training Dataset (FReT).
Фаза 3: Обучение модели эмбеддингов
- Инициализация модели: Подготовка Embedding Model (обычно Dual Encoder).
- Обработка входа: Query Tower кодирует (Задача + Запрос). Document Tower кодирует Пассаж.
- Обучение: Модель обучается (например, с использованием NCE loss) минимизировать расстояние до p+ и максимизировать расстояние до p-.
Какие данные и как использует
Данные на входе
Система использует следующие типы данных для генерации датасета:
- Контентные факторы (Неразмеченные): Corpus of Passages. Коллекция текстов и опционально заголовков (title). Данные не требуют предварительной разметки.
- Системные данные (Инструкции): Few-shot Prompts. Созданные вручную примеры, которые инструктируют LLM, как генерировать задачи и запросы нужного формата и разнообразия.
Какие метрики используются и как они считаются
Патент упоминает несколько ключевых методов и метрик для генерации и обучения:
- Query Likelihood (QL): Метод оценки релевантности. LLM измеряет логарифмическую вероятность (log-likelihood) запроса q при условии наличия пассажа p. QL(q,p) = LLM (q|p, P_QL).
- Relevance Classification (RC): Метод оценки. LLM измеряет логарифмическую вероятность метки релевантности при условии наличия запроса q и пассажа p. RC(q,p) = LLM (label|q, p, P_RC).
- Reciprocal Rank Fusion (RRF): Метод для объединения (ансамблирования) результатов ранжирования (например, QL и RC) для повышения надежности.
- Noise-contrastive estimation (NCE) loss: Функция потерь, используемая для контрастивного обучения финальной модели эмбеддингов.
- Summarize-then-Ask Prompting (SAP): Двухэтапный процесс генерации мультиязычных запросов: сначала извлечение резюме (extractive summary), затем генерация запроса.
Выводы
- LLM как основа обучения Поиска: Google активно использует LLM для генерации обучающих данных, преодолевая ограничения ручной разметки. Знания из LLM дистиллируются в более быстрые модели эмбеддингов, используемые в продакшене.
- Переход к Task-Aware Embeddings (Instruction Tuning): Ключевая инновация — обучение эмбеддингов выполнению конкретных задач (инструкций). Релевантность становится контекстуальной: она зависит от того, является ли задача поиском ответа, проверкой факта или общей навигацией.
- Автоматический контроль качества данных (LLM-mining): Система использует LLM для переоценки и поиска наилучших возможных ответов (Positive Passages) и сложных примеров (Hard Negatives) во всем корпусе. Это гарантирует высокое качество обучающих данных, отражающее глобальные предпочтения LLM.
- Универсальность и Мультиязычность: Цель — создать единую универсальную модель (General Purpose Embedding Model), эффективно работающую для разных задач и на разных языках (включая использование техники SAP).
- Инфраструктурный фокус: Патент описывает внутренние процессы R&D и инфраструктуру обучения. Он не содержит прямых рекомендаций для SEO по оптимизации сайтов, но критически важен для понимания принципов работы современного поиска.
Практика
Best practices (это мы делаем)
Хотя патент инфраструктурный, он дает важные стратегические инсайты о том, как Google понимает релевантность.
- Фокус на выполнении задачи (Task Completion): Контент должен четко и недвусмысленно выполнять конкретную задачу пользователя. Необходимо понимать, какие задачи решает страница: отвечает ли она на конкретный вопрос (QA), предоставляет ли данные для проверки факта (Fact-checking) или является общим обзором (Search Result).
- Ясность и точность контента: Поскольку LLM используются для генерации запросов и оценки наилучших ответов (Positive Passages), контент должен быть написан максимально ясно, точно и авторитетно. Это повышает вероятность того, что модель (обученная LLM) идентифицирует ваш контент как высокорелевантный для конкретной задачи.
- Оптимизация под пассажи (Passage Optimization): Система работает на уровне пассажей. Длинный контент должен быть структурирован так, чтобы отдельные его части (абзацы, блоки) могли независимо удовлетворять конкретные задачи. Каждый пассаж должен иметь четкую цель.
- Создание контента для разнообразных интентов: Разрабатывайте контент, который покрывает разные типы задач в рамках одной темы. Например, для продукта создайте и обзор, и сравнение, и ответы на частые вопросы, так как модель эмбеддингов будет искать наилучшее соответствие конкретной инструкции.
Worst practices (это делать не надо)
- Создание Поверхностного Контента, не решающего задачу: Контент, который содержит ключевые слова, но не выполняет подразумеваемую инструкцию (Task), будет считаться менее релевантным. Например, статья, обсуждающая проблему, но не предлагающая решения, будет плохим ответом на запрос «как исправить X».
- Двусмысленность и «Вода»: Контент, который сложно интерпретировать или который не содержит конкретной информации, скорее всего получит низкий Relevance Score от LLM при обучении системы и будет хуже ранжироваться в продакшене.
- Игнорирование структуры документа: Сплошной текст без четкой структуры затрудняет извлечение пассажей, удовлетворяющих конкретным задачам.
Стратегическое значение
Этот патент подтверждает стратегический сдвиг в поиске от простого семантического сопоставления к поиску, основанному на выполнении задач (Task-based Retrieval). Google обучает свои системы понимать не только о чем контент, но и как его использовать для выполнения инструкции пользователя. Для SEO это означает, что «релевантность» становится все более зависимой от контекста задачи (Task-dependent relevance). Это технический механизм, позволяющий системам Google лучше идентифицировать и продвигать Полезный Контент (Helpful Content).
Практические примеры
Сценарий: Адаптация контента под разные задачи (Tasks)
Рассмотрим тему «Эфириум Merge».
- Задача 1: Question Answering (Ответ на вопрос).
- Инструкция (Task): «Given a query, find a passage that has the answer to the query.»
- Запрос (Query): «Когда произошло слияние Эфириума?»
- Идеальный Positive Passage: «Слияние Эфириума (The Merge) было завершено 15 сентября 2022 года. Это ознаменовало переход сети с Proof-of-Work на Proof-of-Stake.» (Четкий, прямой ответ).
- Задача 2: Fact-checking (Проверка факта).
- Инструкция (Task): «Given a query, find a passage that allows you to check whether the query is true or not.»
- Запрос (Query): «Слияние Эфириума снизило комиссии за газ.»
- Идеальный Positive Passage: «Вопреки распространенному заблуждению, Слияние не снизило комиссии за газ в сети Эфириум. Это было обновление механизма консенсуса, а не расширение пропускной способности сети.» (Прямое подтверждение или опровержение утверждения).
Действия SEO: Убедиться, что на сайте есть контент, который четко адресует оба типа задач. Не пытаться объединить это в один запутанный абзац. Четкое разделение информации помогает моделям эмбеддингов, обученным с помощью этого метода, правильно классифицировать релевантность контента в зависимости от подразумеваемой инструкции.
Вопросы и ответы
Что такое «Instruction Fine-Tuning» и почему это важно для SEO?
Это метод обучения моделей, при котором модель учится адаптировать свое поведение в зависимости от полученной инструкции или задачи (Task). Для SEO это означает переход от оптимизации под ключевые слова к оптимизации под выполнение задач пользователя (Task Completion). Google учит свои системы понимать разницу между интентами: например, «найди определение» vs «проверь этот факт».
Означает ли этот патент, что Google использует LLM (например, Gemini) напрямую для ранжирования?
Нет. Патент описывает использование LLM для двух офлайн-процессов: 1) Генерации синтетических обучающих данных и 2) Оценки качества этих данных (Knowledge Distillation). Затем эти данные используются для обучения более быстрых моделей эмбеддингов (например, Dual Encoders), которые уже применяются в реальном поиске.
Что такое «Задача» (Task/Instruction) в этом патенте? Приведите примеры.
Задача — это описание типа информационного поиска. Примеры из патента: «Given a query, find a passage that has the answer to the query» (Ответ на вопрос) или «Given a query, find a passage that allows you to check whether the query is true or not» (Проверка фактов). Модель учится распознавать эти задачи и адаптировать поиск под них.
Что такое «LLM-mined Positive Passages» (или LLM Re-ranking)?
Это процесс улучшения качества данных. Система не предполагает, что исходный пассаж является лучшим ответом на сгенерированный запрос. Она использует LLM для поиска и переоценки других пассажей в корпусе, выбирая тот, который LLM посчитала наиболее релевантным (Positive Passage). Это значительно повышает точность обучающих данных.
Как этот патент связан с концепцией Полезного Контента (Helpful Content)?
Связь фундаментальная. Полезный контент успешно выполняет задачу пользователя. Метод Instruction Fine-Tuning направлен на обучение моделей распознаванию того, насколько хорошо контент выполняет конкретные задачи. Это технический механизм для идентификации и продвижения полезного контента.
Как это влияет на оптимизацию под пассажи (Passage Optimization)?
Влияние усиливается. Весь процесс генерации данных и обучения основан на пассажах. Это подчеркивает необходимость структурирования контента таким образом, чтобы отдельные абзацы или разделы были самодостаточными и могли независимо выполнять конкретные задачи пользователя.
Какое значение имеет мультиязычный аспект патента (Summarize-then-Ask Prompting — SAP)?
SAP — это техника для генерации высококачественных обучающих данных для разных языков. Модель сначала резюмирует пассаж, а затем генерирует запрос на целевом языке. Это позволяет Google значительно улучшить качество поиска (Dense Retrieval) в мультиязычной среде без дорогостоящей ручной разметки носителями языка.
Как мне следует изменить стратегию создания контента, учитывая этот патент?
Стратегия должна сместиться от «Написание статьи по теме X» к «Создание контента, который выполняет задачи A, B и C, связанные с темой X». Необходимо анализировать типы задач (QA, Fact-check, How-to и т.д.) и убедиться, что контент содержит четкие, прямые и полные ответы, удовлетворяющие этим задачам на уровне отдельных пассажей.
Что такое модель эмбеддингов и где она используется в поиске?
Модель эмбеддингов преобразует текст в числовые векторы, отражающие его семантическое значение. В поиске Google они используются повсеместно: на этапе отбора кандидатов (L1 Retrieval, например, Neural Matching) для быстрого поиска семантически похожего контента, и на этапах ранжирования (L2/L3) для глубокого понимания релевантности.
Используются ли в этом процессе реальные запросы пользователей?
Нет. В этом процессе используются неразмеченные пассажи из корпуса (например, веб-документы), а запросы и задачи генерируются синтетически с помощью LLM на основе содержания этих пассажей. Это позволяет создать обучающий датасет без использования логов реальных пользователей и ручной разметки.