SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google использует архитектуру «Generative Companion» для ведения диалогового поиска с сохранением контекста и выбора специализированных LLM (SGE)

SEARCH WITH STATEFUL CHAT (Поиск с чатом, сохраняющим состояние)
  • US20240289407A1
  • Google LLC
  • 2024-02-27
  • 2024-08-29
  • Персонализация
  • Семантика и интент
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google патентует архитектуру диалогового поиска («Generative Companion»), которая поддерживает состояние пользователя (контекст, историю запросов и взаимодействий) на протяжении всей сессии. Система использует начальную LLM для генерации «синтетических запросов», классифицирует намерение пользователя на основе текущего состояния и динамически выбирает специализированные «Downstream LLM» (для суммаризации, креатива или уточнения) для формирования финального генеративного ответа.

Описание

Какую проблему решает

Патент решает проблему фрагментированности традиционного поиска, когда пользователям приходится вручную вводить множество последовательных запросов для выполнения сложных задач (например, планирования отпуска), теряя при этом контекст. Изобретение направлено на создание интерактивного, диалогового поиска с помощью системы «Generative Companion», которая поддерживает и обновляет состояние пользователя (User State) на протяжении всей сессии. Это позволяет предоставлять адаптированные ответы и снижает риск галлюцинаций генеративных моделей за счет привязки ответов к найденным документам (SRDs).

Что запатентовано

Запатентована архитектура системы для управления диалоговой поисковой сессией с сохранением состояния (Stateful Chat). Система использует оркестрацию нескольких Генеративных Моделей (GM или LLM). Первичная LLM обрабатывает запрос и контекст пользователя для генерации «Синтетических запросов» (Synthetic Queries). Затем система классифицирует намерение и динамически выбирает специализированные «Нисходящие LLM» (Downstream LLMs) для генерации финального ответа на естественном языке (NL).

Как это работает

Система функционирует как многоэтапный конвейер в рамках диалога:

  • Сбор контекста: При получении запроса извлекается User State (история запросов, взаимодействия, контекстуальные сигналы).
  • Генерация синтетических запросов: Первичная LLM обрабатывает запрос и контекст для создания оптимизированных или дополнительных Synthetic Queries.
  • Поиск и классификация: Выполняется поиск по этим запросам. Затем система анализирует полное состояние (запрос, контекст, синтетические запросы, полученные SRDs) для классификации намерения пользователя (например, «нужно резюме выдачи», «нужен креативный текст»).
  • Выбор модели и генерация ответа: На основе классификации выбирается специализированная Downstream LLM, которая генерирует финальный ответ.
  • Обновление состояния: Результаты взаимодействия и сгенерированный ответ обновляют User State для следующего шага диалога.

Актуальность для SEO

Критически высокая. Этот документ (подан в 2024 г., приоритет от 2023 г.) описывает архитектуру, лежащую в основе современных инициатив Google по интеграции генеративного ИИ в поиск, таких как SGE (Search Generative Experience) и AI Overviews. Описанные механизмы сохранения состояния, классификации интента и динамического выбора LLM являются центральными для развития диалогового поиска.

Важность для SEO

Патент имеет критическое значение (9.5/10) для будущего SEO. Он описывает фундаментальный сдвиг от оптимизации под отдельные запросы к оптимизации под целые диалоговые сессии и контекст пользователя. Для SEO-специалистов ключевым становится не просто ранжирование, а попадание в набор документов (SRDs), которые используются LLM для генерации и верификации ответа (Linkifying). Понимание того, как система использует контент для поддержания диалога и отвечает на Synthetic Queries, становится обязательным.

Детальный разбор

Термины и определения

Generative Companion (Генеративный компаньон)
Система, которая дополняет традиционный поиск функцией диалога с сохранением состояния (stateful chat) для обеспечения интерактивного поиска.
Stateful Chat (Чат с сохранением состояния)
Диалоговое взаимодействие, при котором система поддерживает и обновляет контекст пользователя на протяжении нескольких этапов (turns) поисковой сессии.
User State / State Data (Состояние пользователя / Данные состояния)
Агрегированная информация, отражающая контекст сессии. Включает текущий запрос, контекстуальную информацию (местоположение, время, расписание), предыдущие запросы, полученные результаты поиска (SRDs/SRPs) и данные о взаимодействии пользователя. Может храниться в виде семантически богатых эмбеддингов (embeddings).
Synthetic Queries (Синтетические запросы)
Автоматически сгенерированные запросы (переписанные, дополненные или уточняющие), созданные первичной LLM на основе текущего запроса и User State. Используются для поиска релевантных SRDs.
Generative Model (GM) / Large Language Model (LLM)
Генеративные модели (включая LLM, VLM, диффузионные модели и др.), используемые для генерации синтетических запросов и финального ответа.
Downstream LLMs (Нисходящие / Последующие LLM)
Специализированные LLM, которые выбираются динамически на основе классификации запроса. Примеры: Creative LLM (для креатива), SRP Generative LLM (для резюме выдачи), Ambient Generative LLM (для резюме просматриваемого документа), Next Step LLM, Clarification LLM.
Classification (Классификация)
Процесс анализа State Data для определения намерения пользователя или типа требуемого ответа (например, «нужен креативный текст», «нужно резюме выдачи», «требуется уточнение», «не вмешиваться»).
Search Result Document (SRD)
Документ (веб-страница, медиа), полученный в ответ на запрос. Является источником контента для генерации ответа LLM.
Linkifying (Линкификация / Привязка ссылок)
Процесс верификации частей сгенерированного ответа путем сравнения их с контентом исходных SRDs и добавления ссылок на эти источники.

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает полный цикл работы системы Generative Companion.

  1. Система получает запрос.
  2. Извлекается контекстуальная информация (User State).
  3. Первичная GM обрабатывает запрос и контекст, генерируя вывод.
  4. На основе этого вывода генерируются Synthetic Queries.
  5. Отбирается набор документов (SRDs), релевантных как исходному запросу, так и Synthetic Queries.
  6. Обрабатываются данные состояния (State Data) – агрегация запроса, контекста, синтетических запросов и SRDs – для идентификации классификации запроса.
  7. На основе классификации выбираются одна или несколько Downstream GMs.
  8. Выбранные Downstream GMs обрабатывают часть State Data и генерируют финальный ответ.
  9. Система вызывает рендеринг контента на устройстве пользователя.

Ядро изобретения — это многоступенчатая генеративная архитектура. Система не использует одну универсальную LLM. Вместо этого она использует первую GM для расширения поиска, затем слой классификации для понимания состояния сессии и, наконец, динамически выбирает специализированные Downstream GMs для генерации ответа.

Claim 8 (Зависимый): Уточняет представление данных состояния.

Данные состояния (State Data) могут быть представлены в виде агрегированного эмбеддинга (aggregate embedding), сгенерированного из запроса, контекста, синтетических запросов и набора SRDs.

Это указывает на использование семантически богатых векторных представлений для кодирования всего контекста сессии.

Claim 10-11 (Зависимые): Уточняют обновление состояния.

Данные состояния включают информацию о действиях пользователя после отправки запроса, в том числе данные из SRDs, к которым пользователь получил доступ.

Система активно отслеживает взаимодействия пользователя и адаптирует ответы на основе потребленного контента.

Claim 12-14 (Зависимые): Уточняют типы Downstream GMs.

Они включают Creative GM, Ambient GM (для суммаризации просматриваемого документа) и Search Results GM (для суммаризации страницы выдачи).

Где и как применяется

Изобретение описывает архитектуру диалогового поиска (например, SGE) и затрагивает несколько ключевых этапов.

QUNDERSTANDING – Понимание Запросов
Первичная LLM (в составе Context Engine) обрабатывает запрос вместе с User State для глубокого понимания намерения. Результатом являются Synthetic Queries, которые лучше отражают текущее состояние сессии.

RANKING – Ранжирование (Retrieval)
Поиск выполняется как по исходному запросу, так и по Synthetic Queries для получения расширенного набора релевантных кандидатов (SRDs).

METASEARCH / RERANKING – Метапоиск и Переранжирование (Генерация ответа)
Это основная область применения.

  1. Классификация: LLM Selection Engine анализирует полное состояние (State Data) с помощью классификаторов для определения типа необходимого ответа.
  2. Выбор модели: На основе классификации выбираются соответствующие Downstream LLMs.
  3. Генерация и Верификация: LLM Response Generation Engine генерирует ответ. Response Linkifying Engine может использоваться для верификации утверждений и добавления ссылок (Linkifying).
  4. Формирование выдачи: Chat Engine формирует финальный диалоговый ответ.

Входные данные:

  • Текущий запрос пользователя (текст, голос, мультимодальный).
  • User State (история запросов, взаимодействия, контекстуальные сигналы).
  • SRDs и SRPs, полученные в ответ на исходный и синтетические запросы.

Выходные данные:

  • Диалоговый ответ (NL response), который может включать резюме, креативный контент или предложения следующих шагов.
  • Опционально: ссылки на источники (Linkified portions).
  • Обновленное состояние пользователя (Updated User State).

На что влияет

  • Специфические запросы: Наибольшее влияние оказывается на сложные, многоэтапные информационные и транзакционные поисковые путешествия (например, планирование, исследование сложного продукта, обучение).
  • Форматы контента: Повышается важность контента, который легко извлекается, резюмируется и верифицируется для использования в генеративных ответах (NL based summary).
  • Конкретные ниши: Влияет на все ниши, но особенно заметно в областях, требующих синтеза информации (e-commerce, путешествия, сложные YMYL-темы).

Когда применяется

Алгоритм применяется в рамках интерактивной поисковой сессии, управляемой Generative Companion.

  • Триггеры активации: Активация конкретных Downstream LLMs происходит на основе классификации запроса и состояния. Классификации включают: «нужна генерация креативного текста/медиа», «можно извлечь пользу из резюме выдачи (SRP summarization)», «требуется уточнение».
  • Исключения: Система может определить классификацию «не вмешиваться» (do not interfere). В этом случае генеративные функции могут быть отключены, и может быть возвращена стандартная SRP.

Пошаговый алгоритм

Процесс работы системы Generative Companion (на основе FIG. 9):

  1. Получение запроса: Система получает текущий запрос от пользователя [952].
  2. Извлечение контекста: Извлекается контекстуальная информация и история сессии (User State) [954].
  3. Генерация первичного вывода LLM: Первичная LLM обрабатывает запрос и контекст [956].
  4. Генерация синтетических запросов: На основе вывода первичной LLM формируются Synthetic Queries [958].
  5. Поиск и отбор документов: Выполняется поиск. Отбирается набор SRDs, релевантных исходному и синтетическим запросам [960].
  6. Обработка данных состояния и Классификация: Система агрегирует все данные в State Data и обрабатывает их для определения классификации запроса [962].
  7. Выбор специализированных LLM: На основе классификации динамически выбираются одна или несколько Downstream LLMs [964].
  8. Генерация финального ответа: Выбранные Downstream LLMs обрабатывают State Data (включая контент из SRDs) для генерации ответа [966].
  9. Пост-обработка (Опционально): Включает Linkifying (верификацию и добавление ссылок) и оценку уверенности.
  10. Рендеринг ответа: Финальный диалоговый ответ отображается пользователю [968].
  11. Обновление состояния: User State обновляется для следующего этапа диалога.

Какие данные и как использует

Данные на входе

Система использует широкий спектр данных для поддержания состояния и генерации ответов:

  • Поведенческие факторы (User Engagement): Взаимодействие пользователя с предыдущими результатами (клики, время пребывания на SRD). История запросов в текущей и предыдущих сессиях. Используется для обновления User State и адаптации ответов (исключение уже изученной информации).
  • Контентные факторы (из SRDs): Текст, изображения (включая подписи и распознанные объекты), видео (включая транскрипции). Эти данные используются как входные для Downstream LLMs для генерации и верификации ответов.
  • Географические и Временные факторы: Местоположение пользователя (GPS), время суток.
  • Пользовательские факторы (Контекст): Расписание пользователя (из календаря, электронной почты), предпочтения пользователя, текущая активность (вождение, тренировка).

Какие метрики используются и как они считаются

  • Метрики ранжирования SRD: Для отбора SRDs, которые будут использоваться LLM, применяются:
    • Query-dependent measures (зависящие от запроса): позиционный рейтинг, частота выбора, локальность.
    • Query-independent measures (не зависящие от запроса): авторитетность/надежность (trustworthiness), свежесть.
    • User-dependent measures (зависящие от пользователя): релевантность профилю пользователя.
  • Эмбеддинги (Embeddings): Используются для представления User State, запросов и контента SRDs в семантически богатом векторном формате. State Data может быть представлено как aggregate embedding.
  • Классификаторы (Classifiers): Модели машинного обучения (потенциально обученные с подкреплением - Reinforcement Learning), используемые для определения классификации запроса/состояния и выбора Downstream LLM.
  • Меры расстояния (Distance Measures): Используются в процессе Linkifying для верификации. Система сравнивает эмбеддинг части сгенерированного резюме с эмбеддингом части исходного SRD. Если расстояние в пространстве эмбеддингов меньше порога, утверждение считается верифицированным.
  • Меры уверенности (Confidence Measures): Генерируются LLM для оценки достоверности вывода. Могут зависеть от авторитетности и количества подтверждающих SRDs.

Выводы

  1. Архитектура Генеративного Поиска (SGE): Патент детально описывает архитектуру, лежащую в основе современных генеративных поисковых интерфейсов. Это не один алгоритм, а целая система управления поисковой сессией с помощью ИИ.
  2. Контекст сессии (User State) — ключевой фактор. Система активно поддерживает и использует историю диалога, взаимодействия пользователя и внешний контекст для интерпретации запросов и формирования ответов. Поиск переходит от изолированных запросов к непрерывному диалогу.
  3. Многоуровневая оркестровка LLM. Google использует каскад моделей: первичную LLM для понимания контекста и расширения запроса, классификаторы для определения намерения и специализированные Downstream LLMs для генерации финального ответа.
  4. Автоматическая генерация запросов (Synthetic Queries). LLM активно определяет, что именно нужно искать, генерируя Synthetic Queries на основе контекста. Ранжирование зависит не только от исходного запроса пользователя.
  5. Адаптация к знаниям пользователя. Ответы адаптируются к тому, что пользователь уже изучил в рамках сессии. Если пользователь взаимодействовал с документом, система обновит ответ, чтобы не повторять эту информацию или углубить ее.
  6. Критическая роль SRDs и Верификации (Linkifying). Генеративные ответы напрямую зависят от качества отобранных SRDs. Патент подчеркивает важность привязки генеративного контента к источникам с помощью механизмов верификации, основанных на сравнении эмбеддингов.

Практика

Best practices (это мы делаем)

  • Оптимизация под Retrieval (Попадание в набор SRDs). Фокусируйтесь на том, чтобы ваш контент был отобран в ответ на Synthetic Queries. Это требует широкого семантического охвата темы (Topical Authority) и соответствия не только прямым запросам, но и запросам, которые система может сгенерировать в ходе диалога (следующие шаги, уточнения).
  • Создание контента для верификации (Linkifying). Создавайте четкий, фактологический и авторитетный контент. Система должна иметь возможность легко извлечь информацию и верифицировать утверждения LLM по вашему тексту. Используйте структурированные данные и ясные формулировки. Это повышает вероятность цитирования вашего сайта в генеративном ответе.
  • Оптимизация под суммаризацию (Extractability). Убедитесь, что ключевые выводы и ответы на вопросы легко извлекаются. Downstream LLMs (например, SRP Generative LLM) будут использовать ваш контент для создания сводок. Хорошо структурированные страницы с четкими ответами, списками и таблицами имеют преимущество.
  • Учет пути пользователя (User Journey). Создавайте контент, который отвечает на разные этапы поисковой сессии. Поскольку система адаптирует ответы к User State, важно предоставлять уникальную ценность или более глубокую информацию для пользователей, продолжающих исследование темы.

Worst practices (это делать не надо)

  • Фокус только на узких запросах. Оптимизация под отдельные ключевые слова без учета контекста сессии и эволюции запроса (Synthetic Queries) теряет эффективность. Система ищет комплексные ответы в рамках диалога.
  • Использование «воды» и нечетких формулировок. Контент, который сложно суммировать или из которого трудно извлечь конкретные факты для верификации, будет игнорироваться системой при генерации NL ответов.
  • Создание контента, сложного для верификации. Неструктурированный контент, противоречивая информация или мнения без фактологической поддержки снижают шансы на использование вашего сайта в качестве источника.
  • Игнорирование мультимедийного контента. Патент указывает, что LLM обрабатывают текст, изображения и видео из SRDs. Игнорирование качественного мультимедиа снижает общую ценность SRD как источника.

Стратегическое значение

Этот патент подтверждает фундаментальный сдвиг в сторону генеративного и контекстуального поиска (SGE/AI Overviews). Стратегия SEO должна эволюционировать от традиционного ранжирования к оптимизации для генеративного извлечения, суммаризации и верификации моделями ИИ. Главной целью становится не просто попадание в ТОП-10 синих ссылок, а становление цитируемым источником (Linkified source) в ответе Generative Companion. Это требует глубокого понимания того, как LLM интерпретируют и верифицируют информацию.

Практические примеры

Сценарий: Оптимизация статьи о выборе робота-пылесоса для многоэтапной поисковой сессии.

  1. Начальный запрос: Пользователь ищет «лучшие роботы-пылесосы». User State пуст.
  2. Действие системы: Система генерирует Synthetic Queries (например, «сравнение роботов-пылесосов 2025»), отбирает SRDs и генерирует обзорный ответ (AI Overview), используя SRP Generative LLM.
  3. SEO действие (Этап 1): Ваша статья должна содержать четкое сравнение моделей, плюсы и минусы в виде таблицы или списка, чтобы попасть в сводку и получить цитирование.
  4. Следующий запрос: Пользователь спрашивает: «А какой лучше для шерсти животных?». User State обновлен контекстом {роботы-пылесосы}.
  5. Действие системы: Система генерирует новые Synthetic Queries с учетом нового интента («робот-пылесос для шерсти»). LLM генерирует уточненный ответ.
  6. SEO действие (Этап 2): Ваша статья должна детально раскрывать аспект уборки шерсти (типы щеток, мощность), чтобы оставаться релевантной и быть процитированной на этом этапе.
  7. Взаимодействие пользователя: Пользователь кликает на вашу статью и читает раздел о Модели X. User State обновляется информацией о том, что пользователь изучил Модель X.
  8. Следующий запрос: Пользователь спрашивает: «Сравни ее с Моделью Y».
  9. Действие системы: Система генерирует ответ, который адаптирован к знаниям пользователя о Модели X (согласно патенту), и фокусируется на различиях с Моделью Y.
  10. SEO действие (Этап 3): Наличие в вашем контенте прямых сравнений с конкурентами увеличивает вероятность того, что система использует вашу информацию для генерации этого сравнительного ответа.

Вопросы и ответы

Что такое «Generative Companion» и «Stateful Chat» в контексте этого патента?

Это система, которая превращает поиск в интерактивный диалог. Stateful Chat означает, что она поддерживает «состояние пользователя» (User State) на протяжении всей сессии, запоминая предыдущие запросы, ответы и взаимодействия. Это позволяет системе адаптировать свои ответы к эволюционирующему контексту, а не рассматривать каждый запрос изолированно.

Что такое «Синтетические запросы» (Synthetic Queries) и как они влияют на SEO?

Synthetic Queries — это запросы, которые LLM генерирует автоматически на основе исходного запроса и контекста сессии для улучшения поиска. Для SEO это критически важно: ваш контент должен быть релевантен не только тому, что пользователь ввел вручную, но и тем расширенным или уточненным запросам, которые Google генерирует самостоятельно, чтобы попасть в выборку источников (SRDs).

Что такое «Downstream LLMs» и почему их несколько?

Это специализированные LLM, каждая из которых обучена для выполнения конкретной задачи (например, суммаризация выдачи, написание креативного текста, генерация следующих шагов). Система сначала классифицирует намерение пользователя, а затем динамически выбирает наиболее подходящую Downstream LLM. Это позволяет повысить качество ответа для разных типов интентов.

Как этот патент связан с SGE (Search Generative Experience) и AI Overviews?

Этот патент, по сути, описывает базовую архитектуру и логику работы систем типа SGE и AI Overviews. Он объясняет, как Google отбирает информацию из веба (через Synthetic Queries и SRDs), как он решает, какой генеративный ответ показать (через классификацию и выбор Downstream LLM), и как он поддерживает контекст диалога.

Насколько важны традиционные результаты поиска (SRDs) в этой новой архитектуре?

Они критически важны. SRDs являются основой (граундингом) для генерации ответов LLM. Система использует контент из отобранных SRDs для формирования сводки и для верификации (Linkifying) сгенерированных утверждений. Если ваш сайт не попадает в этот набор SRDs, он не будет использован в генеративном ответе.

Что такое «Linkifying» и как оптимизировать контент под этот процесс?

Это процесс верификации частей генеративного ответа по источникам (SRDs) и снабжения этих частей ссылками. Система сравнивает эмбеддинги ответа и документа. Для оптимизации создавайте четкий, фактологический контент с однозначными формулировками, чтобы система могла легко сопоставить утверждение LLM с вашим текстом и процитировать вас.

Как система адаптирует ответы, если пользователь уже видел какой-то контент?

Патент описывает механизм, при котором взаимодействие пользователя с SRD обновляет User State. При генерации последующих ответов система учитывает эту информацию. Это означает, что система будет стараться предоставлять новую информацию или более глубокие детали, а не повторять то, что пользователь только что изучил.

Использует ли система персональные данные пользователя?

Да, патент явно указывает, что User State может включать контекстуальную информацию, такую как местоположение пользователя, время, а также информацию о расписании пользователя, полученную из электронного календаря или почты (с разрешения пользователя). Это используется для глубокой персонализации ответов.

Всегда ли Google будет показывать генеративный ответ?

Нет. Патент описывает этап классификации, одним из результатов которого может быть «do not interfere» (не вмешиваться). В этом случае система может решить, что стандартные результаты поиска будут более полезны, и не будет активировать Downstream LLMs для генерации дополнительного контента.

Какое стратегическое изменение в SEO требуется в свете этого патента?

Требуется переход от фокусировки на ранжировании по ключевым словам к фокусировке на «оптимизации для извлечения и верификации» (Optimization for Retrieval and Verification). Стратегия должна быть направлена на то, чтобы стать лучшим источником, который LLM сможет использовать для синтеза и подтверждения своих ответов в рамках сложных, многоэтапных поисковых сессий.

Похожие патенты

Как Google использует LLM для генерации поисковых сводок (SGE), основываясь на контенте веб-сайтов, и итеративно уточняет ответы
Google использует Большие Языковые Модели (LLM) для создания сводок (AI-ответов) в результатах поиска. Для повышения точности и актуальности система подает в LLM не только запрос, но и контент из топовых результатов поиска (SRDs). Патент описывает, как система выбирает источники, генерирует сводку, проверяет факты, добавляет ссылки на источники (linkifying) и аннотации уверенности. Кроме того, система может динамически переписывать сводку, если пользователь взаимодействует с одним из источников.
  • US11769017B1
  • 2023-09-26
  • EEAT и качество

  • Ссылки

  • SERP

Как Google интегрирует предсказание и выполнение поиска непосредственно в клавиатуру (Gboard) на основе контекста ввода
Google использует клавиатурное приложение (например, Gboard) для анализа текста, вводимого пользователем в реальном времени (например, в чате). Система идентифицирует поисковые сущности или триггерные фразы, автоматически генерирует релевантные поисковые запросы и предлагает их прямо в интерфейсе клавиатуры. Это позволяет пользователю мгновенно выполнить поиск и получить результаты, не покидая текущее приложение.
  • US10305828B2
  • 2019-05-28
  • Семантика и интент

  • Персонализация

Как Google делает поиск «сессионным» (stateful), объединяя параметры из последовательных запросов пользователя
Google может определять, когда несколько последовательных запросов пользователя являются частью одного исследования («линии запроса»). Система объединяет параметры из этих запросов, создавая «комбинированный запрос». Это позволяет пользователю постепенно уточнять поиск (особенно голосом), не повторяя предыдущие условия, делая процесс более естественным и контекстуальным.
  • US11468052B2
  • 2022-10-11
  • Семантика и интент

Как Google Assistant адаптирует выдачу на лету, позволяя пользователям навигировать по результатам и запоминать предпочтения по источникам и темам
Google использует механизм для диалоговых систем (например, Google Assistant), позволяющий пользователям взаимодействовать с поисковой выдачей через естественный язык. Система предоставляет результаты последовательно и адаптирует порядок выдачи в ответ на команды навигации (например, «Вернись к новости о Кафе»). Кроме того, система фиксирует отношение пользователя к атрибутам контента (например, «Не показывай новости из Источника 1») и использует эти данные для фильтрации или изменения ранжирования в текущих и будущих сессиях.
  • US10481861B2
  • 2019-11-19
  • Персонализация

  • Семантика и интент

  • Поведенческие сигналы

Как Google концептуализирует поиск в виде диалоговых тредов для итеративного уточнения запросов
Патент Google описывает интерфейс, который организует поисковые сессии в виде диалоговых тредов (Search Threads). Система интерпретирует последовательные сообщения пользователя как единое, эволюционирующее намерение, позволяя итеративно уточнять критерии. Интерфейс предназначен для управления сложной историей поиска, совместной работы и отслеживания обновлений.
  • US9069825B1
  • 2015-06-30
  • Семантика и интент

Популярные патенты

Как Google использует погоду, время и местоположение для понимания истинного намерения пользователя и адаптации поисковой выдачи
Google анализирует, как физическое окружение (погода, время, местоположение) влияет на то, что ищут пользователи. Система выявляет корреляции между средой и поведением пользователей в прошлом (включая длительность кликов), чтобы лучше понять текущий интент многозначных запросов. Затем она переранжирует выдачу или переписывает запрос для предоставления наиболее релевантных результатов и рекламы.
  • US8898148B1
  • 2014-11-25
  • Семантика и интент

  • Поведенческие сигналы

  • Персонализация

Как Google использует контекст внешних страниц для понимания и идентификации видео и аудио контента
Google анализирует внешние веб-страницы, которые ссылаются на медиафайлы или встраивают их (например, видео YouTube). Система извлекает метаданные из контекста этих страниц — заголовков, окружающего текста, URL. Надежность данных проверяется частотой их повторения на разных сайтах. Эта информация используется для улучшения понимания содержания медиафайла и повышения эффективности систем идентификации контента (Content ID).
  • US10318543B1
  • 2019-06-11
  • Ссылки

  • Индексация

  • Мультимедиа

Как Google определяет ключевую тематику зданий и адресов, используя клики пользователей для показа релевантной рекламы
Google использует этот механизм для понимания основного назначения физического местоположения (адреса или здания). Система анализирует все бизнесы в этой локации и определяет, какие поисковые запросы чаще всего приводят к кликам по их листингам. Самый популярный запрос используется как доминирующее ключевое слово для выбора релевантной рекламы, когда пользователи ищут этот адрес или взаимодействуют с ним на Картах или в Street View.
  • US20120278171A1
  • 2012-11-01
  • Local SEO

  • Семантика и интент

  • Поведенческие сигналы

Как Google использует организационные структуры (папки, ярлыки) как ссылки для расчета PageRank и ранжирования документов
Google может анализировать, как документы организованы пользователями (например, в папках, через ярлыки или закладки), и использовать эти организационные структуры для расчета рейтинга документа. Документы, концептуально сгруппированные вместе, передают друг другу ранжирующий вес (аналогично PageRank), причем более тесные связи (например, в одной папке) передают больше веса, чем более слабые связи (например, в соседних папках).
  • US8090736B1
  • 2012-01-03
  • Ссылки

  • SERP

  • Структура сайта

Как Google выбирает предлагаемые запросы, анализируя вероятность завершения поиска и коммерческую ценность
Google использует графовую модель для анализа поисковых сессий пользователей. Система определяет, какие уточняющие запросы чаще всего приводят к завершению поиска (становятся «финальным пунктом назначения»). Эти запросы считаются обладающими наибольшей «полезностью» (Utility) и предлагаются пользователю в качестве подсказок или связанных запросов. Система также учитывает коммерческий потенциал этих запросов и может показывать для них релевантные рекламные блоки.
  • US8751520B1
  • 2014-06-10
  • SERP

  • Поведенческие сигналы

  • Семантика и интент

Как Google использует интерактивные визуальные цитаты для генерации и уточнения ответов в мультимодальном поиске (SGE/Lens)
Google использует механизм для улучшения точности ответов, генерируемых LLM в ответ на мультимодальные запросы (изображение + текст). Система находит визуально похожие изображения, извлекает текст из их источников и генерирует ответ. Этот ответ сопровождается «визуальными цитатами» (исходными изображениями). Если пользователь видит, что цитата визуально не соответствует запросу, он может её отклонить. Система удалит текст этого источника и перегенерирует ответ, повышая его точность.
  • US20240378237A1
  • 2024-11-14
  • Мультимедиа

  • EEAT и качество

  • Семантика и интент

Как Google использует контекст пользователя для предложения запросов до начала ввода текста (Zero-Input Queries)
Google анализирует историю поисковых запросов, группируя их в «контекстные кластеры» на основе схожести темы и обстоятельств ввода (время, местоположение, интересы). Когда пользователь открывает строку поиска, система оценивает его текущий контекст и мгновенно предлагает релевантные категории запросов (например, «Кино» или «Рестораны»), предсказывая намерение еще до ввода символов.
  • US10146829B2
  • 2018-12-04
  • Семантика и интент

  • Персонализация

  • Поведенческие сигналы

Как Google использует гибридную классификацию и данные о кликах пользователей для точного определения тематики контента
Google использует многоэтапный процесс для классификации контента в детальные иерархические категории. Система комбинирует традиционные методы классификации с анализом поисковых запросов и кликов пользователей (подтвержденных результатов поиска). Это позволяет точно определить узкоспециализированную тематику документа, фильтруя нерелевантные категории и взвешивая релевантность на основе TF-IDF и глубины иерархии.
  • US8145636B1
  • 2012-03-27
  • Семантика и интент

  • Поведенческие сигналы

Как Google использует машинное обучение и поведение пользователей для понимания скрытого намерения в коммерческих запросах
Google использует систему машинного обучения для анализа того, какие товары пользователи выбирают после ввода широких или неоднозначных запросов. Изучая скрытые атрибуты (метаданные) этих выбранных товаров, система определяет «скрытое намерение» запроса. Это позволяет автоматически переписывать будущие неоднозначные запросы в структурированный формат, ориентированный на атрибуты товара, а не только на ключевые слова.
  • US20180113919A1
  • 2018-04-26
  • Семантика и интент

  • SERP

  • Поведенческие сигналы

Как Google использует контекст пользователя в реальном времени и машинное обучение для переранжирования результатов поиска
Google использует систему для прогнозирования истинного намерения пользователя на основе его текущего контекста (местоположение, время, среда, недавние действия) и исторических данных о поведении других пользователей в аналогичных ситуациях. Система переранжирует стандартные результаты поиска, чтобы выделить информацию (особенно "Search Features"), которая наиболее соответствует прогнозируемому намерению.
  • US10909124B2
  • 2021-02-02
  • Семантика и интент

  • Персонализация

  • SERP

seohardcore