
Google патентует архитектуру диалогового поиска («Generative Companion»), которая поддерживает состояние пользователя (контекст, историю запросов и взаимодействий) на протяжении всей сессии. Система использует начальную LLM для генерации «синтетических запросов», классифицирует намерение пользователя на основе текущего состояния и динамически выбирает специализированные «Downstream LLM» (для суммаризации, креатива или уточнения) для формирования финального генеративного ответа.
Патент решает проблему фрагментированности традиционного поиска, когда пользователям приходится вручную вводить множество последовательных запросов для выполнения сложных задач (например, планирования отпуска), теряя при этом контекст. Изобретение направлено на создание интерактивного, диалогового поиска с помощью системы «Generative Companion», которая поддерживает и обновляет состояние пользователя (User State) на протяжении всей сессии. Это позволяет предоставлять адаптированные ответы и снижает риск галлюцинаций генеративных моделей за счет привязки ответов к найденным документам (SRDs).
Запатентована архитектура системы для управления диалоговой поисковой сессией с сохранением состояния (Stateful Chat). Система использует оркестрацию нескольких Генеративных Моделей (GM или LLM). Первичная LLM обрабатывает запрос и контекст пользователя для генерации «Синтетических запросов» (Synthetic Queries). Затем система классифицирует намерение и динамически выбирает специализированные «Нисходящие LLM» (Downstream LLMs) для генерации финального ответа на естественном языке (NL).
Система функционирует как многоэтапный конвейер в рамках диалога:
User State (история запросов, взаимодействия, контекстуальные сигналы).LLM обрабатывает запрос и контекст для создания оптимизированных или дополнительных Synthetic Queries.SRDs) для классификации намерения пользователя (например, «нужно резюме выдачи», «нужен креативный текст»).Downstream LLM, которая генерирует финальный ответ.User State для следующего шага диалога.Критически высокая. Этот документ (подан в 2024 г., приоритет от 2023 г.) описывает архитектуру, лежащую в основе современных инициатив Google по интеграции генеративного ИИ в поиск, таких как SGE (Search Generative Experience) и AI Overviews. Описанные механизмы сохранения состояния, классификации интента и динамического выбора LLM являются центральными для развития диалогового поиска.
Патент имеет критическое значение (9.5/10) для будущего SEO. Он описывает фундаментальный сдвиг от оптимизации под отдельные запросы к оптимизации под целые диалоговые сессии и контекст пользователя. Для SEO-специалистов ключевым становится не просто ранжирование, а попадание в набор документов (SRDs), которые используются LLM для генерации и верификации ответа (Linkifying). Понимание того, как система использует контент для поддержания диалога и отвечает на Synthetic Queries, становится обязательным.
stateful chat) для обеспечения интерактивного поиска.SRDs/SRPs) и данные о взаимодействии пользователя. Может храниться в виде семантически богатых эмбеддингов (embeddings).LLM на основе текущего запроса и User State. Используются для поиска релевантных SRDs.LLM, которые выбираются динамически на основе классификации запроса. Примеры: Creative LLM (для креатива), SRP Generative LLM (для резюме выдачи), Ambient Generative LLM (для резюме просматриваемого документа), Next Step LLM, Clarification LLM.State Data для определения намерения пользователя или типа требуемого ответа (например, «нужен креативный текст», «нужно резюме выдачи», «требуется уточнение», «не вмешиваться»).LLM.SRDs и добавления ссылок на эти источники.Claim 1 (Независимый пункт): Описывает полный цикл работы системы Generative Companion.
User State).GM обрабатывает запрос и контекст, генерируя вывод.Synthetic Queries.SRDs), релевантных как исходному запросу, так и Synthetic Queries.State Data) – агрегация запроса, контекста, синтетических запросов и SRDs – для идентификации классификации запроса.Downstream GMs.Downstream GMs обрабатывают часть State Data и генерируют финальный ответ.Ядро изобретения — это многоступенчатая генеративная архитектура. Система не использует одну универсальную LLM. Вместо этого она использует первую GM для расширения поиска, затем слой классификации для понимания состояния сессии и, наконец, динамически выбирает специализированные Downstream GMs для генерации ответа.
Claim 8 (Зависимый): Уточняет представление данных состояния.
Данные состояния (State Data) могут быть представлены в виде агрегированного эмбеддинга (aggregate embedding), сгенерированного из запроса, контекста, синтетических запросов и набора SRDs.
Это указывает на использование семантически богатых векторных представлений для кодирования всего контекста сессии.
Claim 10-11 (Зависимые): Уточняют обновление состояния.
Данные состояния включают информацию о действиях пользователя после отправки запроса, в том числе данные из SRDs, к которым пользователь получил доступ.
Система активно отслеживает взаимодействия пользователя и адаптирует ответы на основе потребленного контента.
Claim 12-14 (Зависимые): Уточняют типы Downstream GMs.
Они включают Creative GM, Ambient GM (для суммаризации просматриваемого документа) и Search Results GM (для суммаризации страницы выдачи).
Изобретение описывает архитектуру диалогового поиска (например, SGE) и затрагивает несколько ключевых этапов.
QUNDERSTANDING – Понимание Запросов
Первичная LLM (в составе Context Engine) обрабатывает запрос вместе с User State для глубокого понимания намерения. Результатом являются Synthetic Queries, которые лучше отражают текущее состояние сессии.
RANKING – Ранжирование (Retrieval)
Поиск выполняется как по исходному запросу, так и по Synthetic Queries для получения расширенного набора релевантных кандидатов (SRDs).
METASEARCH / RERANKING – Метапоиск и Переранжирование (Генерация ответа)
Это основная область применения.
LLM Selection Engine анализирует полное состояние (State Data) с помощью классификаторов для определения типа необходимого ответа.Downstream LLMs.LLM Response Generation Engine генерирует ответ. Response Linkifying Engine может использоваться для верификации утверждений и добавления ссылок (Linkifying).Chat Engine формирует финальный диалоговый ответ.Входные данные:
User State (история запросов, взаимодействия, контекстуальные сигналы).SRDs и SRPs, полученные в ответ на исходный и синтетические запросы.Выходные данные:
NL response), который может включать резюме, креативный контент или предложения следующих шагов.Linkified portions).Updated User State).NL based summary).Алгоритм применяется в рамках интерактивной поисковой сессии, управляемой Generative Companion.
Downstream LLMs происходит на основе классификации запроса и состояния. Классификации включают: «нужна генерация креативного текста/медиа», «можно извлечь пользу из резюме выдачи (SRP summarization)», «требуется уточнение».do not interfere). В этом случае генеративные функции могут быть отключены, и может быть возвращена стандартная SRP.Процесс работы системы Generative Companion (на основе FIG. 9):
User State) [954].LLM обрабатывает запрос и контекст [956].LLM формируются Synthetic Queries [958].SRDs, релевантных исходному и синтетическим запросам [960].State Data и обрабатывает их для определения классификации запроса [962].Downstream LLMs [964].Downstream LLMs обрабатывают State Data (включая контент из SRDs) для генерации ответа [966].Linkifying (верификацию и добавление ссылок) и оценку уверенности.User State обновляется для следующего этапа диалога.Система использует широкий спектр данных для поддержания состояния и генерации ответов:
SRD). История запросов в текущей и предыдущих сессиях. Используется для обновления User State и адаптации ответов (исключение уже изученной информации).Downstream LLMs для генерации и верификации ответов.SRDs, которые будут использоваться LLM, применяются: Query-dependent measures (зависящие от запроса): позиционный рейтинг, частота выбора, локальность.Query-independent measures (не зависящие от запроса): авторитетность/надежность (trustworthiness), свежесть.User-dependent measures (зависящие от пользователя): релевантность профилю пользователя.User State, запросов и контента SRDs в семантически богатом векторном формате. State Data может быть представлено как aggregate embedding.Downstream LLM.Linkifying для верификации. Система сравнивает эмбеддинг части сгенерированного резюме с эмбеддингом части исходного SRD. Если расстояние в пространстве эмбеддингов меньше порога, утверждение считается верифицированным.LLM для оценки достоверности вывода. Могут зависеть от авторитетности и количества подтверждающих SRDs.LLM для понимания контекста и расширения запроса, классификаторы для определения намерения и специализированные Downstream LLMs для генерации финального ответа.LLM активно определяет, что именно нужно искать, генерируя Synthetic Queries на основе контекста. Ранжирование зависит не только от исходного запроса пользователя.SRDs. Патент подчеркивает важность привязки генеративного контента к источникам с помощью механизмов верификации, основанных на сравнении эмбеддингов.Synthetic Queries. Это требует широкого семантического охвата темы (Topical Authority) и соответствия не только прямым запросам, но и запросам, которые система может сгенерировать в ходе диалога (следующие шаги, уточнения).LLM по вашему тексту. Используйте структурированные данные и ясные формулировки. Это повышает вероятность цитирования вашего сайта в генеративном ответе.Downstream LLMs (например, SRP Generative LLM) будут использовать ваш контент для создания сводок. Хорошо структурированные страницы с четкими ответами, списками и таблицами имеют преимущество.User State, важно предоставлять уникальную ценность или более глубокую информацию для пользователей, продолжающих исследование темы.Synthetic Queries) теряет эффективность. Система ищет комплексные ответы в рамках диалога.NL ответов.LLM обрабатывают текст, изображения и видео из SRDs. Игнорирование качественного мультимедиа снижает общую ценность SRD как источника.Этот патент подтверждает фундаментальный сдвиг в сторону генеративного и контекстуального поиска (SGE/AI Overviews). Стратегия SEO должна эволюционировать от традиционного ранжирования к оптимизации для генеративного извлечения, суммаризации и верификации моделями ИИ. Главной целью становится не просто попадание в ТОП-10 синих ссылок, а становление цитируемым источником (Linkified source) в ответе Generative Companion. Это требует глубокого понимания того, как LLM интерпретируют и верифицируют информацию.
Сценарий: Оптимизация статьи о выборе робота-пылесоса для многоэтапной поисковой сессии.
User State пуст.Synthetic Queries (например, «сравнение роботов-пылесосов 2025»), отбирает SRDs и генерирует обзорный ответ (AI Overview), используя SRP Generative LLM.User State обновлен контекстом {роботы-пылесосы}.Synthetic Queries с учетом нового интента («робот-пылесос для шерсти»). LLM генерирует уточненный ответ.User State обновляется информацией о том, что пользователь изучил Модель X.Что такое «Generative Companion» и «Stateful Chat» в контексте этого патента?
Это система, которая превращает поиск в интерактивный диалог. Stateful Chat означает, что она поддерживает «состояние пользователя» (User State) на протяжении всей сессии, запоминая предыдущие запросы, ответы и взаимодействия. Это позволяет системе адаптировать свои ответы к эволюционирующему контексту, а не рассматривать каждый запрос изолированно.
Что такое «Синтетические запросы» (Synthetic Queries) и как они влияют на SEO?
Synthetic Queries — это запросы, которые LLM генерирует автоматически на основе исходного запроса и контекста сессии для улучшения поиска. Для SEO это критически важно: ваш контент должен быть релевантен не только тому, что пользователь ввел вручную, но и тем расширенным или уточненным запросам, которые Google генерирует самостоятельно, чтобы попасть в выборку источников (SRDs).
Что такое «Downstream LLMs» и почему их несколько?
Это специализированные LLM, каждая из которых обучена для выполнения конкретной задачи (например, суммаризация выдачи, написание креативного текста, генерация следующих шагов). Система сначала классифицирует намерение пользователя, а затем динамически выбирает наиболее подходящую Downstream LLM. Это позволяет повысить качество ответа для разных типов интентов.
Как этот патент связан с SGE (Search Generative Experience) и AI Overviews?
Этот патент, по сути, описывает базовую архитектуру и логику работы систем типа SGE и AI Overviews. Он объясняет, как Google отбирает информацию из веба (через Synthetic Queries и SRDs), как он решает, какой генеративный ответ показать (через классификацию и выбор Downstream LLM), и как он поддерживает контекст диалога.
Насколько важны традиционные результаты поиска (SRDs) в этой новой архитектуре?
Они критически важны. SRDs являются основой (граундингом) для генерации ответов LLM. Система использует контент из отобранных SRDs для формирования сводки и для верификации (Linkifying) сгенерированных утверждений. Если ваш сайт не попадает в этот набор SRDs, он не будет использован в генеративном ответе.
Что такое «Linkifying» и как оптимизировать контент под этот процесс?
Это процесс верификации частей генеративного ответа по источникам (SRDs) и снабжения этих частей ссылками. Система сравнивает эмбеддинги ответа и документа. Для оптимизации создавайте четкий, фактологический контент с однозначными формулировками, чтобы система могла легко сопоставить утверждение LLM с вашим текстом и процитировать вас.
Как система адаптирует ответы, если пользователь уже видел какой-то контент?
Патент описывает механизм, при котором взаимодействие пользователя с SRD обновляет User State. При генерации последующих ответов система учитывает эту информацию. Это означает, что система будет стараться предоставлять новую информацию или более глубокие детали, а не повторять то, что пользователь только что изучил.
Использует ли система персональные данные пользователя?
Да, патент явно указывает, что User State может включать контекстуальную информацию, такую как местоположение пользователя, время, а также информацию о расписании пользователя, полученную из электронного календаря или почты (с разрешения пользователя). Это используется для глубокой персонализации ответов.
Всегда ли Google будет показывать генеративный ответ?
Нет. Патент описывает этап классификации, одним из результатов которого может быть «do not interfere» (не вмешиваться). В этом случае система может решить, что стандартные результаты поиска будут более полезны, и не будет активировать Downstream LLMs для генерации дополнительного контента.
Какое стратегическое изменение в SEO требуется в свете этого патента?
Требуется переход от фокусировки на ранжировании по ключевым словам к фокусировке на «оптимизации для извлечения и верификации» (Optimization for Retrieval and Verification). Стратегия должна быть направлена на то, чтобы стать лучшим источником, который LLM сможет использовать для синтеза и подтверждения своих ответов в рамках сложных, многоэтапных поисковых сессий.

EEAT и качество
Ссылки
SERP

Семантика и интент
Персонализация

Семантика и интент

Персонализация
Семантика и интент
Поведенческие сигналы

Семантика и интент

Семантика и интент
Поведенческие сигналы
Персонализация

Ссылки
Индексация
Мультимедиа

Local SEO
Семантика и интент
Поведенческие сигналы

Ссылки
SERP
Структура сайта

SERP
Поведенческие сигналы
Семантика и интент

Мультимедиа
EEAT и качество
Семантика и интент

Семантика и интент
Персонализация
Поведенческие сигналы

Семантика и интент
Поведенческие сигналы

Семантика и интент
SERP
Поведенческие сигналы

Семантика и интент
Персонализация
SERP
