
Google патентует высокоэффективную систему нейронного поиска (Contextualized Token Retriever). Она обеспечивает высокую точность за счет анализа взаимодействий на уровне отдельных контекстуализированных токенов между запросом и документом. Ключевое нововведение — механизм импутации, который позволяет рассчитывать релевантность, используя только предварительно извлеченные векторы, что радикально снижает вычислительные затраты.
Патент решает проблему баланса между точностью и эффективностью в нейронном поиске (Neural Information Retrieval). Модели, использующие взаимодействие на уровне токенов (token-level interactions, также известные как модели позднего взаимодействия, Late Interaction models), обеспечивают высокую точность, так как детально сравнивают каждый токен запроса с каждым токеном документа. Однако они требуют значительных вычислительных ресурсов и памяти. Цель изобретения — сохранить высокую точность этих моделей при радикальном повышении их эффективности (в патенте упоминается сокращение FLOPS более чем в 4000 раз).
Запатентована система информационного поиска (Contextualized Token Retriever, XTR), которая рассчитывает оценки релевантности (Relevance Scores), используя только предварительно извлеченные векторы токенов документов-кандидатов, а не все их векторы. Это достигается за счет механизма импутации (Imputed Value): если токены документа не входят в число наиболее похожих на токен запроса, система подставляет базовое значение вместо вычисления фактической схожести, экономя ресурсы.
Система работает следующим образом:
Document Encoder Neural Network (например, BERT, T5, Gemini) обрабатывает документы и генерирует контекстуализированные векторы для каждого токена.Query Encoder Neural Network генерирует векторы для токенов входящего запроса.Imputed Value (например, значение схожести K-го элемента в списке).Relevance Score.Высокая. Нейронный поиск и векторные представления являются основой современного поиска Google. Повышение эффективности сложных моделей для их использования на ранних этапах ранжирования (L1 Retrieval) — критически важная задача. Этот патент описывает конкретное инженерное решение (XTR) для масштабирования высокоточных моделей с токен-уровневыми взаимодействиями.
Патент имеет высокое значение (85/100) для понимания механизмов нейронного поиска. Он подтверждает, что Google оценивает релевантность на гранулярном уровне — через взаимодействие отдельных контекстуализированных токенов. Это подчеркивает важность семантической точности и полноты контента: документ должен качественно отвечать на все аспекты запроса, чтобы максимизировать сходство токенов и избежать получения низких Imputed Values.
Token Vectors). Они могут быть одной и той же сетью или разными, обученными совместно.Imputed Value.Query Scores.Query Score во время инференса, если ни один из токенов документа не попал в Топ-K для данного токена запроса. Используется для повышения эффективности.Claim 1 (Независимый пункт): Описывает основной метод эффективного поиска (Inference).
Document Token Vectors.Query Token Vectors с помощью Query Encoder.Candidate Documents (объединение документов, чьи токены были извлечены).Relevance Score для каждого кандидата путем расчета Query Score для каждого токена запроса: Query Score равной наибольшему значению меры схожести (MaxSim) между токеном запроса и этими токенами документа.Query Scores для получения финального Relevance Score.Ядро изобретения — расчет релевантности строго на основе уже извлеченных векторов, без доступа ко всем векторам документа.
Claim 4 (Зависимый от 1): Добавляет механизм импутации.
Если токены документа-кандидата отсутствуют в извлеченном наборе (Топ-K) для данного токена запроса, Query Score устанавливается равной Imputed Value.
Claim 5 (Зависимый от 4): Определяет расчет Imputed Value.
Imputed Value устанавливается равной наименьшему значению меры схожести в извлеченном наборе (Топ-K) для данного токена запроса (т.е. значению схожести K-го элемента).
Claim 9 (Независимый пункт): Описывает процесс обучения (Training) кодировщиков.
Процесс аналогичен инференсу, но цель — оптимизация целевой функции (objective function) и обновление параметров Query Encoder и Document Encoder.
Claim 11 (Зависимый от 9): Ключевое отличие процесса обучения.
Во время обучения, если токены документа-кандидата отсутствуют в извлеченном наборе, Query Score устанавливается равным нулю (а не Imputed Value).
Это критично для обучения, так как система должна быть строго наказана (высокая потеря), если она не смогла извлечь токены релевантного документа, что заставляет модель учиться генерировать лучшие представления.
Изобретение применяется на ключевых этапах поисковой архитектуры для обеспечения эффективного нейронного поиска.
INDEXING – Индексирование и извлечение признаков
Document Encoder Neural Network используется для генерации Document Token Vectors из контента. Эти векторы сохраняются в индексе, оптимизированном для быстрого векторного поиска (ANN Index).
QUNDERSTANDING – Понимание Запросов
Query Encoder Neural Network используется в реальном времени для преобразования запроса пользователя в Query Token Vectors.
RANKING – Ранжирование (L1 Retrieval и L2 Scoring)
Основное применение патента. Механизм обеспечивает эффективный отбор кандидатов и их первичную оценку.
Document Token Vectors для каждого Query Token Vector и генерирует набор Candidate Documents.Relevance Scores для кандидатов, используя описанный эффективный метод позднего взаимодействия с применением Imputed Values.Входные данные:
Document Token Vectors.Выходные данные:
Candidate Documents с рассчитанными Relevance Scores.Фаза 1: Индексирование (Офлайн)
Document Encoder для генерации набора Document Token Vectors.Фаза 2: Ранжирование / Инференс (Онлайн)
Query Encoder для генерации набора Query Token Vectors (Q).Document Token Vectors ().Imputed Value (например, значение схожести K-го вектора в списке ).Query Scores.Query Token Vector (): Query Scores.Imputed Value в Query Scores.Query Scores для получения финального Relevance Score документа .Candidate Documents по Relevance Score.Патент фокусируется на механизме обработки векторных представлений.
Document Token Vectors и Query Token Vectors. Это контекстуализированные эмбеддинги, сгенерированные из исходного контента (текст, мультимедиа) с помощью больших языковых моделей (LLMs). Они инкапсулируют семантическое значение контента на уровне токенов.cosine similarity), скалярное произведение (dot product), евклидово расстояние.Similarity Measure между конкретным токеном запроса и любым из токенов документа, попавшим в Топ-K.Query Scores (MaxSim и Imputed Values) для документа. Формула усреднения: .Imputed Values вместо фактического расчета схожести для не извлеченных токенов является ядром изобретения. Это позволяет применять сложные модели позднего взаимодействия на ранних этапах поиска (L1/L2), радикально снижая вычислительную нагрузку.Imputed Value по соответствующим токенам, что снизит общий Relevance Score.Imputed Value по соответствующим токенам и снижению общей релевантности.Document Encoder создаст сильные векторные представления, которые достигнут высокого значения MaxSim при сравнении с токенами запроса.Imputed Values при расчете финальной оценки.Этот патент подтверждает стратегический курс Google на использование сложных моделей машинного обучения на всех этапах поиска и демонстрирует, как решаются проблемы их масштабирования. Для SEO это означает, что семантическое соответствие становится еще более гранулярным. Стратегия должна смещаться от оптимизации под ключевые слова к оптимизации под семантические векторы и обеспечению максимального соответствия на уровне отдельных концепций (токенов) внутри контента.
Сценарий: Оценка статьи по сложному запросу
Запрос: "Преимущества интервального голодания для начинающих спортсменов"
Токены запроса (упрощенно): ["Преимущества", "интервальное голодание", "начинающие", "спортсмены"]
Relevance Score.Imputed Value.Relevance Score, ниже чем у Статьи А из-за импутации по одному из ключевых аспектов запроса.Что такое модели позднего взаимодействия (Late Interaction Models) и почему этот патент важен для них?
Модели позднего взаимодействия рассчитывают релевантность путем анализа сходства между каждым отдельным токеном запроса и каждым токеном документа, а затем агрегируют эти взаимодействия. Это очень точно, но вычислительно дорого. Этот патент предлагает способ сделать это радикально быстрее за счет механизма импутации (Imputed Value), избегая необходимости обрабатывать все токены документа при ранжировании.
Что такое Imputed Value и как оно влияет на ранжирование?
Imputed Value — это подстановка базового (обычно низкого) значения схожести. Если при поиске Топ-K похожих векторов для токена запроса, токены вашего документа туда не попали, система не будет вычислять их фактическую схожесть. Вместо этого она использует Imputed Value. Если ваш документ часто получает Imputed Value для многих токенов запроса, его итоговый Relevance Score будет низким.
Как этот механизм связан с алгоритмами типа BERT или MUM?
BERT, MUM или Gemini (упомянутые в патенте) — это архитектуры нейронных сетей, которые используются в качестве Query Encoder и Document Encoder. Они отвечают за генерацию высококачественных контекстуализированных векторов токенов. Патент же описывает механизм (XTR), который использует эти векторы для эффективного извлечения и ранжирования документов.
Как мне оптимизировать контент, чтобы мои токены имели высокое сходство с запросом?
Фокусируйтесь на семантической насыщенности, полноте и четкости контекста. Используйте естественный язык, включайте релевантные сущности, синонимы и связанные термины, которые всесторонне описывают тему. Убедитесь, что контекст вокруг важных терминов однозначен и релевантен. Это поможет энкодеру сформировать сильные векторные представления.
На каком этапе поиска работает эта система?
Она работает на этапе INDEXING (создание векторов) и, что более важно, на этапе RANKING L1 (Retrieval) — первичном отборе кандидатов из всего индекса. Ее эффективность позволяет использовать сложные модели на этом раннем этапе для повышения качества отбора.
Что такое контекстуализированный вектор токена?
Это числовое представление слова (токена), которое учитывает его окружение в предложении и документе. Одно и то же слово может иметь разные векторы в зависимости от контекста (например, «ключ» как инструмент и «ключ» как источник воды). Это позволяет поисковой системе понимать точное значение слова в вашем контенте.
Почему система использует разную логику оценки во время обучения и во время применения (инференса)?
Во время применения система использует Imputed Value для скорости. Во время обучения система использует ноль вместо Imputed Value, если релевантные токены не были извлечены. Это создает сильный сигнал ошибки (высокую потерю), заставляя энкодеры учиться генерировать лучшие векторные представления, которые гарантируют извлечение релевантного контента в будущем.
Может ли этот механизм работать с нетекстовым контентом (например, изображениями)?
Да. Механизм универсален. Если Document Encoder способен обработать изображение (например, используя мультимодальные модели типа Gemini) и сгенерировать векторы для его частей (токенов/патчей), то описанный механизм извлечения и оценки может быть применен для поиска релевантных изображений.
Что важнее: чтобы один токен имел очень высокое сходство или чтобы много токенов имели среднее сходство?
Важнее иметь стабильно хорошее покрытие всех аспектов запроса. Поскольку итоговый Relevance Score является агрегацией (например, средним) оценок по всем токенам запроса, документ, который семантически соответствует всем частям запроса, получит более высокую оценку, чем документ, который идеально соответствует только одному слову, а по остальным получает низкий Imputed Value.
Как этот механизм влияет на ранжирование длинных документов (лонгридов)?
Он хорошо работает с длинными документами благодаря механизму позднего взаимодействия (Late Interaction). Система может идентифицировать конкретные пассажи или разделы, токены которых имеют высокую схожесть (MaxSim) с токенами запроса, и присвоить документу высокий рейтинг, даже если не весь документ одинаково релевантен.

Семантика и интент

Семантика и интент

Семантика и интент
Мультимедиа

Семантика и интент

Семантика и интент
SERP

Семантика и интент
Поведенческие сигналы
SERP

Персонализация
Поведенческие сигналы
SERP

EEAT и качество
Поведенческие сигналы
SERP

Поведенческие сигналы
Семантика и интент
Мультимедиа

SERP
Поведенческие сигналы
Персонализация

Персонализация
Поведенческие сигналы
SERP

Персонализация
Семантика и интент
SERP

Персонализация
Семантика и интент
Поведенческие сигналы

Антиспам
Ссылки
Техническое SEO

Поведенческие сигналы
Семантика и интент
SERP
