SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google извлекает готовые ответы из авторитетных источников для формирования Featured Snippets

NATURAL LANGUAGE SEARCH RESULTS FOR INTENT QUERIES (Результаты поиска на естественном языке для запросов с намерением)
  • US9448992B2
  • Google LLC
  • 2013-06-04
  • 2016-09-20
  • Семантика и интент
  • EEAT и качество
  • Индексация
  • SERP
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google использует систему для предоставления прямых ответов на естественном языке (в виде абзацев или списков) на запросы с четким намерением. Система заранее анализирует авторитетные источники, извлекает пары «заголовок-текст», соответствующие популярным шаблонам вопросов, и сохраняет их в специальной базе данных. При получении соответствующего запроса система извлекает готовый ответ из этой базы и отображает его в выдаче.

Описание

Какую проблему решает

Патент решает проблему неэффективности традиционных сниппетов при ответе на запросы с четким намерением (intent queries), особенно на не фактологические вопросы (non-factual questions), требующие сложных или развернутых ответов (например, инструкции или списки симптомов). Традиционные сниппеты часто не предоставляют полного ответа, вынуждая пользователя переходить на сайт. Система направлена на предоставление полного, легко читаемого ответа непосредственно в результатах поиска.

Что запатентовано

Запатентована система для генерации и предоставления Natural Language Search Results (результатов на естественном языке). Суть изобретения заключается в офлайн-обработке документов из Authoritative Sources (авторитетных источников) для извлечения пар «заголовок-текст» (heading-text pairs). Эти пары сохраняются в специализированной базе данных (Q&A Data Store) и индексируются по Теме (Topic) и Категории Вопроса (Question Category), что позволяет быстро извлекать готовые ответы при соответствующем запросе.

Как это работает

Система работает в два этапа: офлайн-подготовка и обработка запроса в реальном времени.

  • Офлайн-подготовка: Система генерирует Intent Templates (шаблоны намерений, например, «Симптомы $X») на основе анализа заголовков в авторитетных источниках и поисковых логов. Затем она сканирует авторитетные источники, находит заголовки, соответствующие этим шаблонам, извлекает следующий за ними текст (абзац или список) и сохраняет эту пару в Q&A Data Store, определяя Тему ($X) и Категорию.
  • Реальное время: При получении запроса система определяет, соответствует ли он какому-либо Intent Template. Если да, она определяет Тему и Категорию запроса, извлекает соответствующие ответы из Q&A Data Store, ранжирует их и предоставляет пользователю как Natural Language Search Results, часто вместе с обычными сниппетами.

Актуальность для SEO

Критически высокая. Описанный механизм является фундаментальным для работы современных систем Google, таких как Featured Snippets (Блоки с ответами) и других форм прямых ответов. Способность извлекать и отображать структурированные ответы из авторитетных источников является ключевым элементом современной поисковой выдачи.

Важность для SEO

Патент имеет критическое значение (95/100) для SEO. Он описывает точный механизм, с помощью которого Google извлекает контент для Featured Snippets. Понимание этого процесса напрямую влияет на стратегии структурирования контента, использования заголовков и оптимизации под конкретные намерения пользователей. Оптимизация под этот механизм позволяет занять «нулевую позицию» в выдаче.

Детальный разбор

Термины и определения

Authoritative Sources (Авторитетные источники)
Источники (домены или URL), предварительно идентифицированные как надежные для определенной тематики. Они могут быть определены администратором, на основе популярности, доверия пользователей (частого выбора в результатах поиска) или высоких позиций в поиске.
Heading-Text Pair (Пара заголовок-текст)
Структурированная единица контента, извлеченная из документа. Состоит из заголовка (heading portion) и следующего за ним текста (text portion) — абзаца (paragraph) или списка (list of items).
Intent Template (Шаблон намерения)
Абстрактный шаблон вопроса, сгенерированный на основе часто встречающихся заголовков или запросов. Состоит из неизменяемой части (non-variable portion) и переменной части (variable portion, $X). Например, «Рецепт $X».
Natural Language Search Result (Результат поиска на естественном языке)
Ответ, представленный в виде полного текста (абзаца или списка), извлеченного из Q&A Data Store, а не в виде традиционного сниппета (snippet-based search result).
Non-Factual Query (Нефактический запрос)
Запрос, предполагающий разнообразный или сложный ответ, а не один конкретный факт (например, инструкции).
Q&A Data Store (Хранилище вопросов и ответов)
База данных, хранящая извлеченные Heading-Text Pairs, проиндексированные по Topic и Question Category.
Question Category (Категория вопроса)
Классификация намерения, общая для разных тем. Например, «Лечение» или «Рецепт». Несколько Intent Templates могут относиться к одной категории.
Topic (Тема)
Конкретный объект или сущность вопроса. Соответствует переменной части ($X) в Intent Template.

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает полный цикл работы системы от извлечения данных до ответа на запрос.

  1. Система анализирует (parsing) документы из Authoritative Sources для генерации Heading-Text Pairs.
  2. Для каждой пары:
    • Она ассоциируется с Intent Template (у которого есть Question Category).
    • Определяется Topic и Question Category для пары на основе шаблона.
    • Пара сохраняется в хранилище данных (data store), индексируемая по Topic и Question Category.
  3. Система определяет, что входящий запрос соответствует первому Intent Template.
  4. Определяется Topic запроса на основе этого шаблона.
  5. Извлекается Heading-Text Pair из хранилища, соответствующая Topic и Question Category запроса.
  6. Предоставляется результат поиска, включающий извлеченную пару.

Claim 9 (Независимый пункт): Описывает систему, фокусируясь на интеграции результатов в выдачу.

Система выполняет парсинг авторитетного источника, генерирует и сохраняет Heading-Text Pair с присвоенными Topic и Question Category. При получении соответствующего запроса система генерирует стандартные сниппет-результаты (snippet-based search results) путем поиска в индексе документов И предоставляет Heading-Text Pair как Natural Language Search Result ВМЕСТЕ со стандартными результатами.

Claim 17 (Независимый пункт): Детализирует офлайн-процесс генерации шаблонов и последующее наполнение базы.

  1. Парсинг документов из Authoritative Sources для генерации первичных Heading-Text Pairs.
  2. Генерация «вопросов с намерением» (intent questions) из заголовков этих пар.
  3. Генерация набора потенциальных шаблонов (Potential Templates) из этих вопросов.
  4. Определение частоты встречаемости (quantity of occurrences) для шаблонов.
  5. Сохранение предопределенного числа наиболее частых шаблонов как Intent Templates, каждому из которых присваивается Question Category.
  6. Парсинг *другого* документа, генерация новой Heading-Text Pair.
  7. Ассоциация этой новой пары с одним из сохраненных Intent Templates.
  8. Определение Topic для новой пары и сохранение ее в Q&A Data Store, индексируемой по Topic и Question Category шаблона.

Где и как применяется

Изобретение охватывает несколько этапов поиска, выполняя большую часть работы на этапе индексирования для обеспечения быстрого ответа на финальных этапах.

CRAWLING – Сканирование и Сбор данных
Система должна идентифицировать и сканировать Authoritative Sources.

INDEXING – Индексирование и извлечение признаков
Основной этап офлайн-обработки. Здесь происходит:

  1. Генерация Intent Templates: Анализ заголовков из авторитетных источников и данных из Search Records (поисковых логов) для создания базы шаблонов и их классификации по Question Category.
  2. Извлечение Ответов: Парсинг авторитетных документов для идентификации Heading-Text Pairs, соответствующих шаблонам.
  3. Определение Темы: Идентификация Topic для каждой пары. Патент упоминает, что если тема не ясна из заголовка, система может использовать контекст документа (например, доминирующие термины или URL).
  4. Наполнение Q&A Data Store: Сохранение извлеченных пар.

QUNDERSTANDING – Понимание Запросов
В реальном времени система анализирует входящий запрос, чтобы определить, соответствует ли он какому-либо Intent Template. Если да, извлекаются Topic и Question Category.

METASEARCH – Метапоиск и Смешивание / RANKING – Ранжирование
Система извлекает кандидатов из Q&A Data Store. Эти ответы ранжируются. Ранжирование может использовать тот же алгоритм, что и для обычных результатов, или учитывать специфические факторы (длина ответа, формат, консенсус). Затем Natural Language Search Results смешиваются с обычными сниппетами. Патент также упоминает возможность удаления дублирующегося сниппета, если для документа уже показан Natural Language Search Result.

На что влияет

  • Типы контента: Наибольшее влияние на информационный контент, структурированный в формате вопросов и ответов, инструкций, списков (симптомы, ингредиенты, шаги).
  • Специфические запросы: Влияет на информационные запросы с четким намерением (Intent Queries), особенно на запросы на естественном языке и Non-Factual Queries.
  • Форматы контента: Повышает значимость контента, отформатированного в виде списков (lists) и абзацев (paragraphs), которые следуют сразу за релевантным заголовком.
  • Ниши: Любые ниши, где можно выделить Authoritative Sources. В патенте упоминаются примеры из медицины (YMYL) и кулинарии.

Когда применяется

  • Триггеры активации: Алгоритм активируется, когда входящий запрос успешно сопоставляется с Intent Template И когда Topic, извлеченный из запроса, присутствует в Q&A Data Store для соответствующей Question Category.
  • Исключения: Система может использовать черный список (blacklist) для игнорирования определенных запросов, которые формально соответствуют шаблону, но имеют другое намерение (например, «how to make money» может быть исключен, несмотря на соответствие шаблону «how to make $X»).

Пошаговый алгоритм

Процесс А: Генерация Intent Templates (Офлайн)

  1. Сбор потенциальных вопросов: Извлечение заголовков из документов Authoritative Sources и анализ Search Records для поиска релевантных запросов.
  2. Генерация Потенциальных Шаблонов: Для каждого вопроса замена подмножеств последовательных терминов переменной ($X). Например, из «How to make hummus» генерируются «How to make $X», «How to $X hummus» и т.д.
  3. Анализ частотности: Подсчет частоты встречаемости каждого уникального потенциального шаблона.
  4. Выбор и сохранение: Выбор наиболее частых шаблонов и их сохранение как Intent Templates.
  5. Классификация: Присвоение каждому Intent Template категории (Question Category). Это может делаться вручную или автоматически (путем кластеризации шаблонов, возвращающих схожие результаты поиска).

Процесс Б: Наполнение Q&A Data Store (Офлайн)

  1. Парсинг авторитетных источников: Анализ документов для поиска заголовков.
  2. Извлечение пар: При обнаружении заголовка извлекается он и следующий за ним текст (абзац/список) как Heading-Text Pair.
  3. Сопоставление с шаблонами и Определение Категории: Проверка, соответствует ли заголовок какому-либо Intent Template. Если да, паре присваивается Question Category шаблона.
  4. Определение Темы (Topic): Текст, соответствующий переменной $X, становится Topic. Если заголовок не содержит темы (например, просто «Лечение»), система пытается определить Topic из контекста документа.
  5. Сохранение: Сохранение Heading-Text Pair в Q&A Data Store, индексируемой по Topic и Question Category.

Процесс В: Обработка запроса (Реальное время)

  1. Получение запроса.
  2. Генерация потенциальных шаблонов из запроса.
  3. Сопоставление шаблонов: Проверка, соответствует ли какой-либо из сгенерированных шаблонов сохраненному Intent Template.
  4. Проверка Темы: Если соответствие найдено, извлекается Topic из запроса. Проверяется, существует ли запись в Q&A Data Store для данного Topic и Question Category.
  5. Извлечение и Ранжирование: Если запись существует, извлекаются соответствующие Heading-Text Pairs. Они ранжируются.
  6. Формирование выдачи: Предоставление лучших пар как Natural Language Search Results. Возможно удаление дубликатов из стандартных сниппетов.

Какие данные и как использует

Данные на входе

  • Системные/Внешние факторы (Authoritativeness): Предварительная оценка авторитетности источников (Authoritative Sources). Система полагается на список доверенных доменов/URL для извлечения ответов.
  • Контентные и Структурные факторы:
    • Заголовки (Headings): Критически важны для генерации шаблонов и извлечения ответов.
    • Текст (Text): Следующий за заголовком контент (абзацы, списки).
    • Контекст документа и URL: Используются для определения Topic в неоднозначных случаях.
  • Поведенческие факторы: Search Records (поисковые логи) используются для идентификации популярных запросов с намерением и генерации Intent Templates.

Какие метрики используются и как они считаются

  • Frequency of Occurrence (Частота встречаемости): Используется при генерации Intent Templates. Подсчитывается, как часто потенциальный шаблон встречается в заголовках и логах.
  • Ranking Signals (Сигналы ранжирования): Патент упоминает, что для ранжирования Natural Language Search Results может использоваться тот же алгоритм, что и для стандартных сниппетов.
  • Специфические метрики ранжирования (Альтернативы): Патент также предлагает альтернативные методы ранжирования извлеченных ответов:
    • Length (Длина): Предпочтение более коротким ответам.
    • Format (Формат): Предпочтение спискам перед абзацами.
    • Source Focus (Фокус источника): Предпочтение специализированным авторитетным источникам перед общими.
    • Similarity/Consensus (Схожесть/Консенсус): Оценка того, насколько текст ответа совпадает с текстом других ответов на ту же тему (для определения консенсуса).

Выводы

  1. Фундамент для Featured Snippets: Патент описывает базовую архитектуру для систем типа Featured Snippets. Google заранее (офлайн) извлекает структурированные ответы из доверенных источников и хранит их в специализированной базе (Q&A Data Store).
  2. Критичность Авторитетности (E-E-A-T): Извлечение ответов происходит преимущественно из предварительно определенных Authoritative Sources. Авторитетность сайта является входным фильтром для участия в этой системе.
  3. Структура Контента превыше всего: Система полагается на четкую структуру «Заголовок + Текст». Заголовок должен соответствовать Intent Template (популярному шаблону вопроса), а ответ должен следовать непосредственно за ним в виде абзаца или списка.
  4. Генерация Шаблонов на основе данных: Intent Templates генерируются автоматически путем анализа того, как авторитетные сайты структурируют свой контент (заголовки) и как пользователи ищут информацию (поисковые логи).
  5. Обработка Неоднозначности Темы: Система имеет механизмы для определения Topic, даже если он явно не указан в заголовке, используя контекст страницы (URL, доминирующие термины).
  6. Ранжирование и Консенсус: Ответы из Q&A Data Store ранжируются. Помимо стандартных сигналов, могут учитываться длина, формат и консенсус (насколько ответ совпадает с ответами из других авторитетных источников).

Практика

Best practices (это мы делаем)

  • Оптимизация под Intent Templates: Анализируйте популярные запросы и структуру контента авторитетных сайтов в вашей нише. Используйте формулировки, соответствующие этим шаблонам, в качестве заголовков (H1-Hn). Например, используйте заголовок «Симптомы [Болезнь]», так как он соответствует шаблону «Симптомы $X».
  • Четкая структура Heading-Text: Размещайте полный и лаконичный ответ непосредственно под соответствующим заголовком. Используйте абзац (около 40-60 слов) для определений или маркированный/нумерованный список для инструкций и перечислений. Убедитесь, что между заголовком и ответом нет посторонних элементов.
  • Построение Авторитетности (E-E-A-T): Сосредоточьтесь на том, чтобы ваш сайт был признан Authoritative Source. Это является необходимым условием для попадания в Q&A Data Store согласно этому механизму.
  • Использование Явных Тем в Заголовках: Всегда включайте Topic в заголовок, чтобы избежать неоднозначности. Например, вместо заголовка «Лечение» используйте «Лечение [Болезнь]».
  • Использование стандартного HTML: Используйте корректное форматирование (теги заголовков, <p>, <ul>, <ol>), чтобы облегчить системе парсинг и извлечение Heading-Text Pairs.

Worst practices (это делать не надо)

  • Использование расплывчатых или «креативных» заголовков: Заголовки, которые не соответствуют стандартным Intent Templates, не будут извлечены. Например, заголовок «Что вас беспокоит?» менее эффективен, чем «Общие симптомы простуды».
  • Скрытие ответов в тексте: Размещение ответа глубоко внутри длинного блока текста или отделение его от релевантного заголовка (например, изображением или вводным текстом) снижает вероятность его извлечения как Natural Language Search Result.
  • Игнорирование структуры страницы: Сложная верстка или использование нестандартных методов для отображения заголовков и текста может помешать системе корректно идентифицировать Heading-Text Pair.

Стратегическое значение

Этот патент подтверждает стратегию Google по предоставлению ответов непосредственно в SERP. Для SEO это означает, что оптимизация под «нулевую позицию» (Featured Snippets) является критически важной стратегией для информационного трафика. Патент подчеркивает, что успех зависит от комбинации авторитетности сайта и идеальной структуры контента, соответствующей намерениям пользователей. Контент-стратегия должна фокусироваться на создании структурированных блоков ответов на ключевые вопросы в нише.

Практические примеры

Сценарий: Оптимизация статьи о рецепте для Featured Snippet (Список)

Задача: Получить Featured Snippet по запросу «Ингредиенты для пиццы Маргарита».

  1. Анализ Интента: Определяем, что запрос соответствует Intent Template «Ингредиенты для $X». Topic = «Пицца Маргарита». Question Category = «Ингредиенты».
  2. Структурирование Контента (НЕПРАВИЛЬНО):
    <h2>Что вам понадобится</h2> <p>Чтобы приготовить эту вкусную пиццу, возьмите муку (500г), воду (300мл)...</p> 
  3. Структурирование Контента (ПРАВИЛЬНО):
    <h2>Ингредиенты для пиццы Маргарита</h2> <ul> <li>Мука типа 00: 500 г</li> <li>Теплая вода: 300 мл</li> <li>Свежие дрожжи: 10 г</li> <li>Томатный соус: 200 мл</li> <li>Сыр Моцарелла: 250 г</li> </ul> 
  4. Ожидаемый результат: Система идентифицирует заголовок как соответствующий шаблону, извлекает список как Text Portion и сохраняет эту пару в Q&A Data Store. При соответствующем запросе этот список отображается как Featured Snippet.

Вопросы и ответы

Как этот патент связан с Featured Snippets (Блоками с ответами)?

Патент описывает базовую архитектуру и механизм, который Google использует для генерации Featured Snippets, особенно в формате абзацев и списков. Процесс извлечения пар «заголовок-текст» из авторитетных источников и их хранение в Q&A Data Store для быстрого доступа — это именно то, как создаются эти блоки. Понимание этого патента дает прямое руководство по оптимизации контента для попадания в Featured Snippets.

Как система определяет, является ли мой сайт «Authoritative Source»?

Патент указывает, что Authoritative Sources могут быть определены администратором системы, автоматически на основе популярности и доверия (например, частый выбор источника в результатах поиска) или на основе того, что источник постоянно занимает высокие позиции по запросам в данной тематике. На практике это соответствует комплексному анализу сигналов E-E-A-T.

Что важнее для попадания в блок с ответами: авторитетность сайта или структура контента?

Оба фактора критически важны. Авторитетность является входным фильтром: система извлекает ответы преимущественно из Authoritative Sources. Однако, чтобы конкретный фрагмент контента был извлечен, он должен иметь идеальную структуру: заголовок, соответствующий Intent Template, и четкий ответ сразу после него.

Как узнать, какие «Intent Templates» использует Google в моей нише?

Патент указывает, что шаблоны генерируются из двух источников: заголовков на авторитетных сайтах и поисковых логов. Для анализа следует изучить структуру контента (заголовки) у лидеров ниши и проанализировать формулировки запросов пользователей. Также полезно изучить, какие формулировки уже используются в текущих Featured Snippets по вашим целевым запросам.

Какой формат ответа лучше: список или абзац?

Патент явно упоминает оба формата (paragraph и list of items) как допустимые для Natural Language Search Result. Выбор формата зависит от категории вопроса. Для инструкций, ингредиентов или перечисления симптомов лучше подходит список. Для определений или объяснений лучше подходит лаконичный абзац.

Что делать, если мой заголовок точный, но тема в нем не указана (например, просто «Ингредиенты» в статье о пицце)?

Патент описывает механизм обработки таких неоднозначных заголовков. Система попытается определить Topic из контекста страницы: доминирующих терминов документа или URL. Однако это менее надежно. Рекомендуется всегда включать тему в заголовок (например, «Ингредиенты для пиццы»), чтобы максимизировать шансы на корректное извлечение.

Влияет ли этот механизм на ранжирование обычных «синих ссылок»?

Прямо не влияет, но патент упоминает два важных аспекта. Во-первых, если для документа показан Natural Language Search Result, его стандартный сниппет может быть удален из выдачи для избежания дублирования. Во-вторых, система может использовать определенные Topic и Question Category из запроса для улучшения качества стандартных сниппет-результатов, по сути переписывая естественный запрос в ключевой.

Как ранжируются ответы, если из Q&A Data Store извлечено несколько кандидатов?

Патент предлагает несколько вариантов. Может использоваться стандартный алгоритм ранжирования. Также могут применяться специфические факторы: предпочтение более коротким ответам, спискам, или ответам, которые демонстрируют консенсус (схожи с ответами из других авторитетных источников).

Что такое «не фактологические запросы» (non-factual queries) в контексте патента?

Это запросы, ответы на которые требуют развернутого объяснения, списка или инструкции, а не одного конкретного факта. Например, «высота Эйфелевой башни» — фактологический запрос. «Как лечить простуду» или «рецепт блинов» — не фактологические запросы, требующие комплексного ответа, который и предоставляет описанная система.

Насколько важны теги заголовков (H1-H6) согласно этому патенту?

Они критически важны. Система использует заголовки (Headings) как для генерации Intent Templates (понимания структуры контента), так и для извлечения конкретных ответов (Heading-Text Pairs). Четкая и семантически верная структура заголовков является основой для работы описанного механизма.

Похожие патенты

Как Google извлекает и ранжирует прямые ответы (Featured Snippets) из веб-страниц
Google использует систему для ответов на вопросы пользователей путем извлечения конкретных предложений из результатов поиска. Система оценивает предложения-кандидаты по трем критериям: насколько часто похожие фразы встречаются в других результатах (консенсус), насколько предложение соответствует запросу (релевантность) и насколько авторитетен источник (ранг документа). Лучшие ответы отображаются над стандартными результатами поиска.
  • US8682647B1
  • 2014-03-25
  • SERP

  • Семантика и интент

Как Google оценивает и выбирает контент для Featured Snippets (Блоков с ответами) на основе консенсуса выдачи
Google использует систему для выбора и оценки Featured Snippets. Система анализирует топовые результаты поиска, чтобы предсказать, какие термины должны быть в ответе (Answer Terms). Затем она оценивает отрывки текста, учитывая совпадение с запросом, наличие предсказанных терминов ответа (консенсус топа), качество исходного сайта, форматирование и языковую модель контента.
  • US9940367B1
  • 2018-04-10
  • SERP

  • Семантика и интент

  • EEAT и качество

Как Google извлекает, формирует и оценивает контент для Featured Snippets из структурированных и неструктурированных данных
Google использует систему для генерации Featured Snippets (ответных пассажей) в ответ на запросы-вопросы. Система анализирует топовые результаты, разделяя контент на структурированный (таблицы, списки) и неструктурированный (текст). Применяя разные наборы правил для каждого типа контента, система извлекает блоки текста (Passage Units) и формирует из них кандидатов для показа в блоке ответов, после чего оценивает их с помощью комплексного скоринга.
  • US10180964B1
  • 2019-01-15
  • SERP

  • Семантика и интент

Как Google извлекает факты напрямую из веб-страниц для формирования прямых ответов (Featured Snippets / Answer Boxes)
Google использует систему для динамического извлечения фактов из веб-индекса. Когда поступает фактический запрос, система определяет ожидаемый тип ответа (например, дата, число, имя), анализирует топовые результаты поиска и извлекает соответствующие фразы. Эти фразы нормализуются, оцениваются по частоте, контексту и авторитетности источника, и лучший вариант показывается в виде прямого ответа.
  • US8655866B1
  • 2014-02-18
  • Индексация

  • Семантика и интент

  • SERP

Как Google извлекает факты из веб-страниц для прямых ответов и автоматического наполнения Knowledge Graph
Google использует систему для ответов на вопросительные запросы. Система анализирует текстовые сниппеты из результатов поиска, применяет NLP-анализ (аннотирование) для извлечения кандидатов в ответы и выбирает лучший на основе консенсуса и качества источников. Этот механизм используется как для предоставления прямых ответов пользователям (Featured Snippets), так и для автоматического поиска недостающей информации и обновления базы знаний (Entity Database).
  • US20160132501A1
  • 2016-05-12
  • Knowledge Graph

  • Семантика и интент

  • SERP

Популярные патенты

Как Google использует историю запросов, сделанных на Картах, для ранжирования локальных результатов и рекламы
Google анализирует, что пользователи ищут, когда просматривают определенную географическую область на карте (Viewport). Эта агрегированная история запросов используется для определения популярности локальных бизнесов и контента в этом конкретном районе. Результаты, которые часто запрашивались в этой области, особенно недавно, получают значительное повышение в ранжировании.
  • US9129029B1
  • 2015-09-08
  • Local SEO

  • Поведенческие сигналы

  • Свежесть контента

Как Google анализирует сессии пользователей и кластеризует концепции для генерации блока "Связанные запросы" (Related Searches)
Google анализирует последовательности запросов пользователей в рамках одной сессии для выявления шаблонов уточнений. Система кластеризует эти уточнения по смыслу, анализируя контент ранжирующихся по ним документов или другие запросы, ведущие на эти документы. Это позволяет предлагать пользователям концептуально различные варианты для сужения или изменения темы поиска.
  • US8065316B1
  • 2011-11-22
  • Семантика и интент

  • SERP

  • Поведенческие сигналы

Как Google автоматически определяет важность различных частей веб-страницы (DOM-узлов) для ранжирования
Google анализирует коллекции похожих структурированных документов (например, товарных карточек) и создает общую модель (DOM). Затем система изучает логи запросов и кликов, чтобы понять, какие части структуры (заголовки, основной контент, реклама) чаще всего содержат ключевые слова из успешных запросов. Этим частям присваивается больший вес при расчете релевантности.
  • US8538989B1
  • 2013-09-17
  • Семантика и интент

  • Индексация

  • Структура сайта

Как Google предсказывает намерения пользователя и выполняет поиск до ввода запроса (Predictive Search)
Google использует механизм для прогнозирования тем, интересующих пользователя в конкретный момент времени, основываясь на его истории и контексте. При обнаружении сигнала о намерении начать поиск (например, открытие страницы поиска), система проактивно выполняет запрос по предсказанной теме и мгновенно показывает результаты или перенаправляет пользователя на релевантный ресурс.
  • US8510285B1
  • 2013-08-13
  • Семантика и интент

  • Персонализация

  • Поведенческие сигналы

Как Google использует историю навигации и клики по рекламе для генерации ключевых слов, гео-таргетинга и выявления MFA-сайтов
Патент Google, описывающий три механизма, основанных на анализе поведения пользователей (selection data). Система использует путь навигации пользователя для генерации новых ключевых слов для рекламы, улучшает гео-таргетинг объявлений на основе предпочтений пользователей, а также выявляет низкокачественные сайты (MFA/манипулятивные) по аномально высокому CTR рекламных блоков.
  • US8005716B1
  • 2011-08-23
  • Поведенческие сигналы

  • Семантика и интент

  • Антиспам

Как Google использует обучение с подкреплением (Reinforcement Learning) для оптимизации ранжирования и переписывания запросов на основе успешности поисковых сессий
Google использует систему Reinforcement Learning для динамической адаптации поисковых процессов. Система анализирует поисковые сессии (последовательности запросов и кликов) и учится оптимизировать выдачу, чтобы пользователь быстрее находил нужный результат. Это достигается путем корректировки весов факторов ранжирования, переписывания запросов или даже обновления индекса на лету для конкретных ситуаций.
  • US11157488B2
  • 2021-10-26
  • Индексация

  • Поведенческие сигналы

  • Семантика и интент

Как Google использует машинное обучение и данные о длительности сессий для выявления битых Deep Links в мобильных приложениях
Google использует систему машинного обучения для анализа того, как долго пользователи взаимодействуют с контентом в приложении после перехода по Deep Link (Presentation Duration). Анализируя распределение этих временных интервалов, система классифицирует ссылку как рабочую или битую без необходимости прямого сканирования контента. Это позволяет Google удалять неработающие ссылки из индекса.
  • US10628511B2
  • 2020-04-21
  • Ссылки

  • Индексация

  • Поведенческие сигналы

Как Google рассчитывает «VisualRank» для изображений и медиафайлов, используя виртуальные ссылки на основе схожести и поведения пользователей
Google использует алгоритм (концептуально называемый VisualRank) для ранжирования изображений и других медиафайлов путем создания «виртуальных ссылок» между ними. Эти ссылки основаны на визуальной схожести контента, данных о кликах пользователей и контексте размещения (URL analysis). Это позволяет оценить качество и авторитетность медиафайлов даже без явных гиперссылок, при этом система активно избегает показа слишком похожих (дублирующихся) результатов.
  • US8732187B1
  • 2014-05-20
  • Ссылки

  • Мультимедиа

  • Поведенческие сигналы

Как Google определяет скрытый интент сессии, используя универсальные уточняющие слова, и переранжирует выдачу
Google идентифицирует универсальные слова-модификаторы (например, «фото», «отзывы», «pdf»), которые пользователи часто добавляют к разным запросам. Если такое слово появляется в сессии, система определяет скрытый интент пользователя. Затем Google переранжирует выдачу, основываясь на том, какие документы исторически предпочитали пользователи с таким же интентом, адаптируя результаты под контекст сессии.
  • US8868548B2
  • 2014-10-21
  • Семантика и интент

  • Поведенческие сигналы

  • Персонализация

Как Google использует внешние данные для оценки репутации сущностей и их взаимной привлекательности в вертикальном поиске
Google использует систему для улучшения вертикального поиска (например, вакансий, недвижимости) путем оценки взаимной привлекательности двух разных типов сущностей (например, соискателя и вакансии). Система агрегирует данные из внешних источников для выявления скрытых атрибутов и расчета «Репутационной значимости» каждой сущности. На основе этих данных определяется метрика «Двухстороннего соответствия», которая используется для ранжирования.
  • US10853432B2
  • 2020-12-01
  • Семантика и интент

  • SERP

  • Поведенческие сигналы

seohardcore