
Google использует модель с двумя отдельными нейронными сетями (Two-Tower Model) для понимания семантической релевантности между запросами и контентом. Одна сеть обрабатывает запрос, другая — контент, преобразуя их в векторы (embeddings). Релевантность определяется близостью этих векторов, а не совпадением ключевых слов. Эта архитектура позволяет Google предварительно вычислять векторы для всего контента во время индексации, обеспечивая быстрый семантический поиск в реальном времени.
Патент решает две ключевые задачи в информационном поиске. Во-первых, он улучшает определение релевантности за пределами простого совпадения ключевых слов, позволяя системе идентифицировать семантически связанный контент, даже если в нем отсутствуют термины запроса. Во-вторых, он решает проблему вычислительной эффективности сложных нейронных моделей. Традиционные модели, анализирующие запрос и документ вместе (cross-encoders), слишком медленны для поиска в реальном времени. Предложенная архитектура позволяет выполнять глубокий семантический анализ масштабируемо и быстро.
Запатентована система информационного поиска, основанная на Relevance Model, состоящей из двух отдельных, но совместно обучаемых нейронных сетей: Input Neural Network (для запросов) и Subsequent Content Neural Network (для контента). Эта архитектура, известная как «Two-Tower Model» или сиамская сеть, позволяет преобразовывать текст в семантические векторы (embeddings). Релевантность определяется путем сравнения этих векторов (например, через скалярное произведение).
Система работает в три этапа:
Subsequent Content Neural Network используется для обработки всего корпуса документов. Для каждого сегмента текста генерируется вектор (embedding), который сохраняется в индексе.Input Neural Network быстро генерирует вектор запроса. Система сравнивает этот вектор с предварительно рассчитанными векторами контента в индексе (используя dot product), чтобы мгновенно найти наиболее семантически близкие результаты.Критически высокая. Описанная архитектура «Two-Tower» является фундаментом современных систем нейронного поиска (Neural Retrieval) и dense passage retrieval. Она обеспечивает баланс между качеством семантического понимания (используя глубокие нейронные сети) и скоростью ответа, необходимой для работы поисковых систем в реальном времени. Участие таких изобретателей, как Raymond Kurzweil, подчеркивает стратегическую важность этого направления для Google.
Патент имеет фундаментальное значение для современного SEO (оценка 9.5/10). Он описывает механизм, который смещает фокус с лексического анализа (ключевых слов) на глубокое семантическое соответствие. Для ранжирования критически важно, чтобы семантический вектор контента был близок к вектору запроса, независимо от используемых слов. Это требует стратегии, направленной на создание контента, который всесторонне раскрывает тему, соответствует интенту пользователя и обладает высоким качеством, поскольку эти векторы также используются для оценки качества (Quality Model) и уникальности (Semantic Density Model).
Relevance Model. Обрабатывает входные данные (например, запрос) и генерирует Input Vector.Relevance Model. Обрабатывает контент (например, текстовый сегмент документа) и генерирует Subsequent Content Vector. Используется офлайн для предварительного расчета векторов контента.Input Neural Network. При обучении это может быть первое предложение или сообщение. При поиске — запрос пользователя.Subsequent Content Neural Network. При обучении это контент, который следует за Initial Content (например, следующее предложение или ответ на сообщение). При поиске — индексируемый контент.Input Vector и Subsequent Content Vector для определения степени релевантности. Обычно использует скалярное произведение (dot product).Subsequent Content Neural Network) для предсказания Quality Value (оценки качества) этого контента.Semantic Density Value).Claim 1 (Независимый пункт): Описывает основной процесс информационного поиска с использованием предобученной модели.
Input Neural Network Model.Query Vector).Input Neural Network была обучена с использованием backpropagation на основе ошибок. Эти ошибки вычислялись как функция сравнения тренировочных векторов запросов (от этой сети) и векторов последующего контента (от отдельной Subsequent Content Neural Network Model).Query Vector с предварительно сохраненными векторами (pre-stored vectors).pre-stored vectors были сгенерированы путем применения представлений текстовых сегментов к Subsequent Content Neural Network Model.Это классическое описание процесса Dense Retrieval с использованием архитектуры Two-Tower. Подтверждается, что сети обучаются совместно (на основе общих ошибок), но используются раздельно: одна для генерации вектора запроса в реальном времени, другая — для предварительной генерации векторов контента.
Claim 2 и 9 (Зависимые): Уточняют метод сравнения векторов.
dot product).Dot product используется как эффективная метрика близости в векторном пространстве для определения релевантности.
Claim 3 и 10 (Зависимые): Уточняют процесс скоринга.
dot product. Результат предоставляется на основе этого скоринга.Claim 4, 6, 11, 13 (Зависимые): Описывают использование дополнительных сигналов при скоринге.
Quality Value) (Claim 4, 11).Semantic Density Value) (Claim 6, 13).Финальный скоринг не полагается только на семантическую близость (dot product). Он также учитывает качество и уникальность/распространенность контента.
Claim 5 и 12 (Зависимые): Уточняют, как определяется Quality Value.
Quality Value определяется путем применения предварительно сохраненного вектора контента к обученной модели качества (trained Quality Neural Network Model).Вектор, сгенерированный Subsequent Content Neural Network, используется не только для поиска, но и как входной признак для отдельной модели, предсказывающей качество контента.
Изобретение охватывает ключевые этапы архитектуры поиска: обучение моделей, индексирование и ранжирование (поиск).
INDEXING – Индексирование и извлечение признаков
Это основной этап применения Subsequent Content Neural Network.
Text Segment Engine).Indexing Relevance Engine применяет представление каждого сегмента к Subsequent Content Neural Network для генерации семантического вектора.Quality Model для расчета Quality Value и на вход Semantic Density Model для расчета Semantic Density Value.RANKING – Ранжирование (L1 Retrieval / Отбор кандидатов)
Это этап применения Input Neural Network и использования предварительно рассчитанных данных.
Retrieval Relevance Engine применяет его представление к Input Neural Network для генерации Query Vector в реальном времени.Relevance Measure Module сравнивает Query Vector с предварительно сохраненными векторами контента в индексе. Это сравнение (dot product) позволяет быстро найти семантически близкие текстовые сегменты.Scoring Engine рассчитывает итоговую оценку для кандидатов, используя меру релевантности (dot product) и, опционально, сохраненные Quality Value и Semantic Density Value.Входные данные:
Выходные данные:
Процесс А: Совместное обучение моделей (Training)
Input Neural Network для генерации Input Vector.Subsequent Content Neural Network для генерации Subsequent Content Vector.dot product) между Input Vector и Subsequent Content Vector.Input Neural Network, так и Subsequent Content Neural Network.Процесс Б: Индексирование (Indexing / Offline Processing)
Subsequent Content Neural Network для генерации вектора контента.Quality Model для генерации Quality Value.Semantic Density Model для генерации Semantic Density Value.Quality Value и Semantic Density Value сохраняются в индексе в ассоциации с сегментом.Процесс В: Поиск (Retrieval / Online Processing)
Input Neural Network для генерации Query Vector.Query Vector сравнивается с предварительно сохраненными векторами контента в индексе (например, с использованием Approximate Nearest Neighbor поиска для эффективности).Quality Value и Semantic Density Value.Патент фокусируется на обработке текстовых данных и использовании производных метрик.
Training Quality Value для обучения Quality Model может основываться на индикаторах качества, таких как количество upvotes/downvotes (голосов за/против) контента (например, комментариев).dot product) между Input Vector и Subsequent Content Vector. Результат — скалярная величина (например, от 0 до 1), указывающая на семантическую близость.Subsequent Content Vector на вход Quality Model (отдельная нейронная сеть). Результат — скалярная величина, предсказывающая качество контента.Subsequent Content Vector на вход Semantic Density Model (например, Gaussian Mixture Model, обученной на большом количестве векторов). Результат указывает, насколько распространенным или уникальным является данный семантический вектор по сравнению с другими векторами в индексе.Subsequent Content Neural Network. Это позволяет выполнять быстрый семантический поиск в реальном времени, используя только Input Neural Network для обработки запроса.Quality Model и Semantic Density Model. Финальный скоринг учитывает не только релевантность (dot product), но и качество, и уникальность контента.Quality Model, обучаемой на основе пользовательских сигналов (например, upvotes) и текстовых паттернов (через векторы), подчеркивает, что контент должен соответствовать критериям качества, чтобы ранжироваться высоко, даже если он семантически релевантен.Semantic Density Model предполагает, что контент, который является слишком распространенным или повторяющимся (имеет вектор, близкий ко многим другим векторам), может оцениваться иначе, чем уникальный и информативный контент.Quality Model использует те же семантические векторы для оценки качества. Контент должен демонстрировать паттерны, которые система ассоциирует с высоким качеством (например, глубина анализа, ясность изложения, достоверность).Semantic Density Value и, вероятно, низкий Quality Value.Этот патент описывает инфраструктуру, которая делает возможным переход Google к полностью семантическому поиску. Он подтверждает, что будущее SEO лежит в области понимания того, как нейронные сети интерпретируют контент. Стратегический приоритет смещается от традиционной оптимизации под ключевые слова к оптимизации под семантические векторы. Это требует глубокого понимания темы, интента пользователя и создания контента, который по своей сути является качественным, уникальным и контекстуально богатым.
Сценарий: Оптимизация статьи о питании для собак
Плохая практика (фокус на ключевых словах): Статья с заголовком «Лучший корм для собак: кормление собак и еда для собак». Текст повторяет фразы «лучший корм» и «еда для собак», но не дает конкретных рекомендаций по выбору или анализу ингредиентов.
Хорошая практика (фокус на семантике и качестве):
Subsequent Content NN генерирует качественные векторы для каждого абзаца.Quality Model присваивает высокий Quality Value.Semantic Density Model определяет контент как информативный (оптимальная плотность).Input NN генерирует вектор запроса, который будет близок (высокий dot product) к векторам абзацев про ингредиенты, что приведет к высокому ранжированию.Что такое архитектура «Two-Tower», описанная в патенте, и почему она важна?
Это архитектура модели релевантности, состоящая из двух отдельных нейронных сетей: одна для обработки запроса (Input NN), другая для обработки контента (Subsequent Content NN). Ее важность заключается в эффективности: она позволяет предварительно рассчитать семантические векторы (embeddings) для всех документов офлайн. Во время поиска нужно только рассчитать вектор запроса и сравнить его с готовыми векторами, что делает глубокий семантический поиск быстрым и масштабируемым.
Как система определяет релевантность, если в запросе и контенте нет общих слов?
Система определяет релевантность на основе семантической близости векторов, а не совпадения слов. Обе нейронные сети обучаются понимать смысл текста и генерировать близкие векторы для семантически связанных понятий. Релевантность измеряется с помощью скалярного произведения (dot product) между вектором запроса и вектором контента; чем выше результат, тем выше релевантность.
Что такое «Subsequent Content» и как это влияет на создание контента?
«Subsequent Content» (Последующий контент) — это данные, используемые для обучения модели. Это может быть следующее предложение в тексте или ответ на сообщение. Это означает, что Google обучает свои модели понимать логическую последовательность и контекст. Для SEO это подчеркивает важность создания когерентного, хорошо структурированного контента, где каждая часть логически связана с предыдущей.
Что такое Quality Model и как она связана с E-E-A-T?
Quality Model — это отдельная модель, которая использует семантический вектор контента (тот же, что и для поиска) для предсказания качества этого контента. Она обучается на примерах высококачественного и низкокачественного контента. Это механизм, с помощью которого Google может алгоритмически оценивать признаки E-E-A-T, анализируя текстовые паттерны и глубину экспертизы, отраженные в семантическом векторе.
Что такое Semantic Density Model и почему уникальность контента важна?
Semantic Density Model оценивает, насколько распространенным или уникальным является семантический вектор контента по сравнению с другими векторами в индексе. Если контент слишком похож на множество других документов (высокая плотность/распространенность), это может повлиять на его скоринг. Это подчеркивает важность создания уникальной ценности, а не простого рерайтинга существующих материалов.
Влияет ли этот патент на оптимизацию под ключевые слова?
Да, он значительно снижает важность точного вхождения ключевых слов. Хотя лексическое совпадение все еще может играть роль в других частях алгоритма, этот патент описывает механизм поиска, который полагается на семантику. Стратегии, основанные на плотности ключевых слов или неестественном их использовании, становятся неэффективными против этой системы.
Как этот патент связан с Passage Ranking (Passage Retrieval)?
Патент напрямую поддерживает Passage Retrieval. В нем описано, что система индексирует векторы для отдельных «текстовых сегментов» (Text Segments), а не только для всего документа. Это позволяет Google находить и ранжировать конкретные абзацы или предложения, которые семантически релевантны запросу, даже если весь документ в целом менее релевантен.
Что такое «Cooperative Training» и почему сети обучаются вместе?
Совместное обучение означает, что хотя сети раздельные, они обучаются одновременно с использованием общей функции потерь (ошибки). Ошибка рассчитывается на основе сравнения выходных данных обеих сетей. Это необходимо для того, чтобы обе сети научились проецировать запросы и релевантный контент в одно и то же семантическое векторное пространство.
Используются ли Quality Value и Semantic Density Value при финальном ранжировании?
Да. Согласно патенту (Claims 4, 6, 11, 13), финальный скоринг основывается не только на мере релевантности (dot product), но также учитывает предварительно рассчитанные Quality Value и Semantic Density Value. Это означает, что релевантный контент может быть понижен, если он низкого качества или неуникален.
Как SEO-специалисту оптимизировать контент под эту модель?
Необходимо сосредоточиться на трех аспектах: семантическом соответствии интенту, качестве и уникальности. Создавайте экспертный контент, который глубоко раскрывает тему, имеет четкую логическую структуру и предлагает уникальную ценность. Убедитесь, что каждый абзац несет смысловую нагрузку и может выступать как самостоятельный ответ на потенциальный запрос.

Семантика и интент
Индексация
Мультимедиа

Семантика и интент

Персонализация
Поведенческие сигналы

Индексация
Мультимедиа

Семантика и интент

Knowledge Graph
Семантика и интент
EEAT и качество

Индексация
Семантика и интент
Ссылки

SERP
Персонализация
Поведенческие сигналы

Поведенческие сигналы
SERP
EEAT и качество

Персонализация
Поведенческие сигналы
Семантика и интент

Свежесть контента
Ссылки
Техническое SEO

Антиспам
Ссылки
Семантика и интент

Ссылки
Индексация
Мультимедиа

Семантика и интент
Структура сайта
Ссылки

Семантика и интент
EEAT и качество
Индексация
