SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google использует интерактивные визуальные цитаты для генерации и уточнения ответов в мультимодальном поиске (SGE/Lens)

VISUAL CITATIONS FOR INFORMATION PROVIDED IN RESPONSE TO MULTIMODAL QUERIES (Визуальные цитаты для информации, предоставляемой в ответ на мультимодальные запросы)
  • US20240378237A1
  • Google LLC
  • 2023-05-09
  • 2024-11-14
  • Мультимедиа
  • EEAT и качество
  • Семантика и интент
  • Поведенческие сигналы
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google использует механизм для улучшения точности ответов, генерируемых LLM в ответ на мультимодальные запросы (изображение + текст). Система находит визуально похожие изображения, извлекает текст из их источников и генерирует ответ. Этот ответ сопровождается «визуальными цитатами» (исходными изображениями). Если пользователь видит, что цитата визуально не соответствует запросу, он может её отклонить. Система удалит текст этого источника и перегенерирует ответ, повышая его точность.

Описание

Какую проблему решает

Патент решает проблему точности, верификации и доверия к ответам, генерируемым поисковыми системами (в частности, с использованием LLM) в ответ на мультимодальные запросы (изображение + текст). Когда система генерирует ответ на основе информации, найденной через визуальный поиск, существует риск, что визуально похожие изображения могут происходить из нерелевантных контекстов. Патент предлагает механизм, позволяющий пользователю быстро оценить релевантность источников через «визуальные цитаты» и интерактивно исключить неточные источники для уточнения результата.

Что запатентовано

Запатентована система обработки мультимодальных запросов, которая генерирует текстовый ответ, опираясь на контент из документов, содержащих визуально похожие изображения. Ключевым элементом является представление этих изображений как интерактивных визуальных цитат (Selectable Attribution Elements). Система включает механизм обратной связи: если пользователь определяет изображение-источник как визуально не соответствующее запросу (visually dissimilar), он может его исключить. Это приводит к удалению текста данного источника из входных данных LLM и немедленной перегенерации ответа.

Как это работает

Система работает следующим образом:

  • Мультимодальный ввод: Получение изображения (Query Image) и текстового запроса (Prompt).
  • Визуальный поиск: Поиск похожих изображений (Result Images) путем сравнения их векторных представлений (Intermediate Representations или эмбеддингов).
  • Извлечение контента: Идентификация исходных документов (Source Documents), содержащих эти изображения, и извлечение связанного с ними текста.
  • Генерация ответа (LLM): Языковая модель обрабатывает извлеченный текст и Prompt для создания сводного ответа (Language Output).
  • Визуальное цитирование: Ответ отображается вместе с визуальными цитатами — интерактивными элементами, содержащими миниатюры Result Images и ссылки на источники.
  • Уточнение (Refinement Loop): Пользователь отклоняет нерелевантную цитату. Система удаляет текст этого источника из корпуса для LLM и генерирует уточненный ответ (Refined Language Output).

Актуальность для SEO

Чрезвычайно высокая. Заявка подана в 2023 году и напрямую связана с ключевыми направлениями развития Google: мультимодальным поиском (Google Lens, Circle to Search) и генеративным поиском (SGE/AI Overviews). Механизмы атрибуции источников и интерактивного уточнения ответов ИИ критически важны для повышения точности и доверия пользователей.

Важность для SEO

Влияние на SEO критическое (8.5/10) в контексте развития мультимодального и генеративного поиска. Патент демонстрирует, что изображения становятся не просто контентом, а точкой входа для поиска и верифицируемым источником для LLM. Это радикально повышает важность тесной связи между изображением и окружающим его текстом на странице. Сайты с качественными изображениями и точным текстовым контекстом получат преимущество в качестве цитируемых источников в генеративных ответах.

Детальный разбор

Термины и определения

Attribution Element / Selectable Attribution Element (Элемент Атрибуции / Визуальная Цитата)
Интерактивный элемент интерфейса. Включает миниатюру Result Image и информацию об источнике (Attribution Information). Пользователь может выбрать его, чтобы указать на нерелевантность источника.
Intermediate Representation (Промежуточное представление)
Числовое представление (как правило, эмбеддинг или вектор) изображения, сгенерированное моделью визуального поиска. Используется для оценки визуального сходства.
Language Output (Языковой вывод)
Текстовый ответ, сгенерированный Machine-Learned Language Model на основе промпта и извлеченного текста.
Machine-Learned Language Model (LLM)
Языковая модель, используемая для синтеза ответа из набора текстовых входных данных.
Multimodal Query (Мультимодальный запрос)
Запрос, состоящий из изображения (Query Image) и текста (Prompt).
Query Image (Изображение запроса)
Изображение, предоставленное пользователем.
Refined Language Output (Уточненный языковой вывод)
Перегенерированный ответ после того, как пользователь исключил один или несколько нерелевантных источников.
Result Image (Результирующее изображение)
Изображение из индекса, найденное как визуально похожее на Query Image.
Set of Textual Inputs (Набор текстовых входных данных)
Корпус текста, подаваемый в LLM. Включает Prompt и текст, извлеченный из Source Documents.
Source Document (Исходный документ)
Документ (например, веб-страница), который содержит Result Image и связанный с ним текст.

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает основной метод интерактивного уточнения генеративного ответа в мультимодальном поиске.

  1. Система извлекает два или более Result Images на основе сходства Intermediate Representations (эмбеддингов) с Query Image.
  2. Система обрабатывает Set of Textual Inputs (текст из источников Result Images + Prompt) с помощью Machine-Learned Language Model для получения Language Output.
  3. Система предоставляет Language Output и Result Images пользователю.
  4. Система получает от пользователя индикацию, что первое Result Image визуально не похоже (visually dissimilar) на Query Image.
  5. Система удаляет текст, связанный с Source Document этого первого изображения, из Set of Textual Inputs.
  6. Система повторно обрабатывает обновленный набор входных данных с помощью LLM для получения Refined Language Output.
  7. Система предоставляет Refined Language Output пользователю.

Ядро изобретения — это цикл обратной связи, позволяющий пользователю управлять источниками данных для LLM путем визуальной оценки релевантности, что приводит к динамическому уточнению ответа.

Claim 6 (Зависимый от 4): Детализирует интерфейс пользователя.

Система предоставляет данные для генерации интерфейса, включающего: (a) элемент с Language Output и (b) два или более Selectable Attribution Elements (визуальные цитаты). Каждый элемент включает миниатюру (thumbnail) Result Image и информацию об источнике (Attribution Information).

Claim 7 (Зависимый от 6): Связывает интерфейс и механизм обратной связи.

Индикация о визуальном несходстве (из п.1) получается через данные о том, что пользователь выбрал (кликнул) соответствующий Selectable Attribution Element.

Где и как применяется

Изобретение интегрирует визуальный поиск, обработку естественного языка и генерацию интерфейса, затрагивая несколько этапов поисковой архитектуры.

INDEXING – Индексирование и извлечение признаков
На этом этапе система индексирует изображения и их Source Documents. Генерируются и сохраняются Intermediate Representations (эмбеддинги) изображений. Устанавливается связь между изображениями и окружающим их текстом (Document Indexing Information).

RANKING – Ранжирование (Визуальный поиск)
При получении Query Image система генерирует его эмбеддинг и выполняет быстрый поиск ближайших соседей в пространстве эмбеддингов (Image Search Space) для получения списка Result Images.

METASEARCH / RERANKING (Генерация и Уточнение)
Основное применение патента. Происходит после визуального поиска:

  1. Извлечение Текста: Система извлекает текст из Source Documents, связанных с топовыми Result Images.
  2. Генерация Ответа (LLM): Извлеченный текст и Prompt передаются в Machine-Learned Language Model.
  3. Формирование Интерфейса: Создается выдача, объединяющая Language Output и Visual Citations (Attribution Elements).
  4. Уточнение (Refinement Loop): При получении обратной связи от пользователя система модифицирует входные данные для LLM и перегенерирует ответ в реальном времени.

Входные данные:

  • Query Image и Prompt от пользователя.
  • Индекс эмбеддингов изображений.
  • Индекс исходных документов и их текстового контента.
  • Обратная связь пользователя (выбор нерелевантной цитаты).

Выходные данные:

  • Language Output (сгенерированный ответ).
  • Attribution Elements (визуальные цитаты с миниатюрами и ссылками).
  • Refined Language Output (уточненный ответ).

На что влияет

  • Конкретные типы контента: Наибольшее влияние на контент, где изображения несут ключевую информацию: страницы товаров (E-commerce), инструкции (How-to), образовательные материалы, обзоры техники, контент о природе или путешествиях.
  • Специфические запросы: Мультимодальные запросы, направленные на идентификацию («Что это?»), получение характеристик («Какие у этого параметры?») или инструкций («Как это использовать?»).
  • Конкретные ниши: E-commerce, DIY, образование, техническая поддержка.

Когда применяется

  • Условия активации алгоритма: Получение мультимодального запроса (Image + Prompt) через интерфейсы типа Google Lens или Circle to Search.
  • Триггеры активации: Система должна найти достаточное количество визуально похожих изображений (Result Images) с доступным текстовым контекстом для генерации ответа.
  • Триггер уточнения: Активируется в реальном времени, когда пользователь взаимодействует с Selectable Attribution Element, указывая на визуальное несходство (visually dissimilar).

Пошаговый алгоритм

Фаза 1: Генерация первичного ответа

  1. Получение запроса: Система получает Query Image и Prompt.
  2. Генерация эмбеддинга: Query Image обрабатывается для создания Intermediate Representation.
  3. Визуальный поиск: Система извлекает набор Result Images на основе сходства эмбеддингов.
  4. Идентификация и Извлечение: Определяются Source Documents для Result Images, и из них извлекается релевантный текст (First Units of Text).
  5. Подготовка данных для LLM: Формируется Set of Textual Inputs (извлеченный текст + Prompt).
  6. Генерация ответа: LLM обрабатывает входные данные и генерирует Language Output.
  7. Формирование интерфейса: Создаются Selectable Attribution Elements (визуальные цитаты).
  8. Предоставление результата: Интерфейс отображается пользователю.

Фаза 2: Цикл уточнения (Refinement Loop)

  1. Получение обратной связи: Пользователь выбирает Selectable Attribution Element, указывая на нерелевантность.
  2. Фильтрация входных данных: Текст, связанный с этим источником, удаляется из Set of Textual Inputs.
  3. Перегенерация ответа: LLM обрабатывает обновленный набор данных и генерирует Refined Language Output.
  4. Обновление интерфейса: Пользователю предоставляется уточненный ответ, а исключенный элемент атрибуции удаляется.

Какие данные и как использует

Данные на входе

  • Контентные факторы (Текст): Текст, извлеченный из Source Documents. Критически важен текст, окружающий Result Image или связанный с ним на странице (подписи, описания, параграфы). Этот текст является фактической базой для генерации ответа LLM.
  • Мультимедиа факторы (Изображения): Query Image и Result Images. Используются их визуальные характеристики, закодированные в Intermediate Representations (эмбеддингах), для оценки сходства.
  • Пользовательские факторы (Взаимодействие): Текстовый Prompt, определяющий интент. Активная обратная связь пользователя (отклонение визуальных цитат) используется для управления процессом уточнения ответа.

Какие метрики используются и как они считаются

  • Visual Similarity (Визуальное Сходство): Метрика для поиска Result Images. Рассчитывается на основе расстояния между Intermediate Representations (эмбеддингами) в векторном пространстве (например, с использованием k-nearest neighbor search).
  • Алгоритмы машинного обучения:
    • Модель визуального поиска (Machine-Learned Visual Search Model): Используется для генерации эмбеддингов изображений.
    • Языковая модель (Machine-Learned Language Model): Используется для обработки текста и генерации Language Output (например, суммаризация, ответ на вопрос).
  • Методы анализа текста: Система может использовать эвристики (например, близость текста к изображению) или модели для определения, какие части Source Document наиболее релевантны Result Image.

Выводы

  1. Визуальное сходство как основа для поиска информации: В мультимодальном поиске первичный отбор источников (Retrieval) опирается на визуальное сходство изображений (через эмбеддинги), а не на текстовые совпадения.
  2. Критическая важность связи «Изображение-Текст»: Система предполагает, что текст, окружающий изображение на странице, является его релевантным описанием. Качество и точность этого текста напрямую определяют качество сгенерированного ответа LLM.
  3. Визуальные цитаты как механизм верификации и атрибуции: Патент вводит Visual Citations как способ для пользователя быстро проверить источники, использованные LLM, и как метод атрибуции контента в генеративном поиске.
  4. Интерактивное уточнение генеративных ответов: Ключевая инновация — возможность пользователя в реальном времени корректировать источники данных для LLM путем исключения визуально нерелевантных результатов. Это повышает точность финального ответа (Refined Language Output).
  5. Новые требования к SEO-оптимизации контента: Успех в мультимодальном поиске требует синергии между качеством визуальных активов и качеством их текстового контекста на странице.

Практика

Best practices (это мы делаем)

  • Обеспечение тесной связи между изображением и текстом: Размещайте ключевые изображения в непосредственной близости к точному и подробному тексту, описывающему изображенное. Этот текст является сырьем для LLM. Убедитесь, что подписи (captions) и ближайшие абзацы максимально релевантны изображению.
  • Оптимизация изображений для визуального поиска (VSEO): Используйте высококачественные, четкие изображения с хорошо различимым основным объектом. Это улучшает качество Intermediate Representation и повышает вероятность точного визуального сопоставления.
  • Использование уникальных изображений: Отдавайте предпочтение оригинальным фотографиям и иллюстрациям вместо стоковых. Это гарантирует, что при визуальном сопоставлении будет извлечен именно ваш уникальный контекст, а не текст с другого сайта, использующего то же изображение.
  • Структурирование контента для извлечения: Организуйте контент так, чтобы система могла легко извлечь информацию, связанную с изображением. Это особенно важно для страниц товаров (E-commerce), инструкций и обзоров, где характеристики и описания должны быть рядом с фото.

Worst practices (это делать не надо)

  • Использование нерелевантных или общих стоковых фото: Размещение изображений, которые слабо связаны с окружающим текстом. Если такое изображение будет выбрано в качестве Result Image, извлеченный текст будет нерелевантен запросу, что приведет к неточному ответу LLM или исключению источника пользователем.
  • Несоответствие контента (Image-Text Mismatch): Использование кликбейтных изображений или изображений, противоречащих тексту статьи. Это прямой путь к тому, что пользователь отклонит ваш контент через механизм визуальной верификации.
  • Тонкий контент вокруг важных изображений: Размещение изображений без достаточного текстового описания. В этом случае LLM не получит достаточного контекста для генерации качественного ответа.
  • Изолирование изображений от текста: Размещение изображений в галереях или слайдерах вдали от основного контента может затруднить системе установление связи между изображением и релевантным текстом.

Стратегическое значение

Этот патент подтверждает стратегический вектор Google на развитие мультимодального и генеративного поиска. Он демонстрирует механизм «обоснования» (grounding) ответов LLM в веб-источниках, используя визуальное сходство как первичный сигнал. Для SEO это означает переход к комплексной оптимизации визуального и текстового контента как единого целого. Видимость будет зависеть от способности сайта служить надежным, верифицируемым источником для генеративных ответов, что требует фокуса на «Оптимизации под цитирование» (Citation Optimization).

Практические примеры

Сценарий: Оптимизация карточки товара в E-commerce

  1. Задача: Продажа определенной модели кофемашины.
  2. Оптимизация: Размещаются уникальные фото кофемашины. Непосредственно рядом размещен блок с техническими характеристиками (давление, объем бака, тип капсул).
  3. Запрос пользователя: Пользователь фотографирует эту кофемашину (Query Image) и спрашивает: «Какое давление у этой модели?» (Prompt).
  4. Работа системы: Google находит ваше изображение как Result Image, извлекает блок с характеристиками. LLM генерирует ответ: «Давление этой модели составляет 19 бар». Ваше фото используется как визуальная цитата.
  5. Результат: Ваш сайт получает видимость и атрибуцию в генеративном ответе.

Сценарий: Уточнение ответа пользователем (Refinement)

  1. Запрос пользователя: Пользователь фотографирует пассажирский самолет (Query Image) и спрашивает: «Какая дальность полета?» (Prompt).
  2. Ошибка системы: Система находит три похожих изображения. Два из них — верные пассажирские самолеты, но третье — истребитель (ошибка визуального поиска).
  3. Генерация: LLM смешивает информацию из всех трех источников. Ответ содержит данные и о пассажирском самолете, и об истребителе.
  4. Взаимодействие: Пользователь видит три визуальные цитаты. Он замечает истребитель и исключает его как нерелевантный (visually dissimilar).
  5. Результат: Система удаляет текст об истребителе и перегенерирует ответ (Refined Language Output), используя только релевантные источники о пассажирском самолете.

Вопросы и ответы

Как этот патент связан с Google Lens и SGE (AI Overviews)?

Патент описывает технологию, идеально подходящую для Google Lens и Circle to Search, где поиск инициируется изображением. Он также критически важен для SGE/AI Overviews, так как предоставляет конкретный механизм для атрибуции источников (цитирования) в генеративных ответах и, что более важно, позволяет пользователям интерактивно уточнять эти ответы, повышая доверие к системе.

Анализирует ли языковая модель (LLM) само изображение?

Нет, согласно описанному механизму. LLM обрабатывает только текст. Сначала система визуального поиска находит похожие изображения. Затем извлекается текст со страниц, где эти изображения размещены. Именно этот извлеченный текст (и промпт пользователя) подается на вход LLM. Система полагается на предположение, что текст рядом с похожим изображением релевантен запросу.

Что такое «Intermediate Representation» и как это влияет на SEO?

Intermediate Representation — это эмбеддинг (векторное представление) изображения, который фиксирует его визуальные и семантические характеристики. Влияние на SEO заключается в необходимости оптимизировать изображения так, чтобы их эмбеддинги точно отражали содержание. Это требует использования четких, высококачественных изображений с фокусом на основном объекте.

Какой текст со страницы система использует для генерации ответа?

Патент не дает точного метода, но упоминает извлечение First Unit of Text. Это может быть весь текст документа или его часть. Упоминаются эвристики, такие как выбор текста, расположенного непосредственно до и после изображения. Для SEO это означает, что контекст в непосредственной близости от изображения (подписи, ближайшие абзацы) критически важен.

Что происходит, когда пользователь отклоняет визуальную цитату?

Происходит немедленное уточнение ответа. Система удаляет весь текст, извлеченный из источника отклоненной цитаты, из набора данных для LLM. Затем LLM перегенерирует ответ (Refined Language Output) на основе оставшихся источников. Это позволяет динамически исключать ошибки, вызванные неточными визуальными совпадениями.

Как это влияет на стратегию использования стоковых фотографий?

Использование общих стоковых фотографий становится рискованным, если они не имеют прямого отношения к тексту. Уникальные изображения предпочтительнее, так как они гарантируют, что при визуальном совпадении будет извлечен именно ваш уникальный текстовый контекст. Если используется сток, он должен быть строго релевантен окружающему тексту.

Использует ли система традиционные факторы ранжирования (E-E-A-T, ссылки) в этом процессе?

Патент фокусируется исключительно на визуальном сходстве как методе поиска источников (Result Images). Традиционные факторы ранжирования или сигналы авторитетности сайта явно не упоминаются в описанном механизме генерации и уточнения. Однако на практике качество источника может влиять на то, какие изображения попадают в топ визуального поиска или как LLM взвешивает информацию из разных источников.

Может ли система использовать текст из нескольких источников для одного ответа?

Да, абсолютно. Патент описывает извлечение текста из нескольких Source Documents (соответствующих нескольким Result Images). Затем этот объединенный набор текстовых данных обрабатывается LLM для получения единого сводного ответа (Language Output).

Что делать, если мой контент используется как цитата, но генерируемый ответ неточен?

Это может указывать на то, что LLM неправильно интерпретировала ваш текст или смешала его с неточной информацией из других источников. Проанализируйте структуру вашего текста вокруг изображения: возможно, он неоднозначен или недостаточно четок. Улучшение ясности и фактической точности текста поможет LLM более корректно синтезировать информацию.

Является ли механизм исключения цитат сигналом для ранжирования?

Патент описывает это как механизм для немедленного уточнения текущего ответа. Он не указывает, используется ли факт исключения цитаты пользователем как глобальный сигнал для понижения этого источника в будущем. Однако, как правило, данные о взаимодействии пользователей (особенно явная негативная обратная связь) используются Google для оценки качества и обучения моделей.

Похожие патенты

Как Google использует визуальные цитаты и обратную связь для генерации и уточнения ответов в мультимодальном поиске
Google генерирует ответы на мультимодальные запросы (изображение + текст), находя визуально похожие изображения в интернете и используя текст с их исходных страниц как основу для LLM. Система показывает эти изображения как «визуальные цитаты» для подтверждения ответа и позволяет пользователям исключать нерелевантные источники, чтобы мгновенно уточнить сгенерированный результат.
  • US20240378236A1
  • 2024-11-14
  • Мультимедиа

  • EEAT и качество

  • Ссылки

Как Google преобразует изображения в текст для понимания мультимодальных запросов с помощью LLM
Google использует систему для обработки мультимодальных запросов (текст + изображение), позволяя LLM отвечать на вопросы об изображениях. Система анализирует изображение с помощью вспомогательных моделей (распознавание объектов, VQA) и выполняет обратный поиск по картинкам для извлечения текста с найденных веб-ресурсов. Вся эта информация объединяется в структурированный текстовый промт, который позволяет LLM понять визуальный контекст и сгенерировать релевантный ответ.
  • US20250061146A1
  • 2025-02-20
  • Мультимедиа

  • Семантика и интент

Как Google использует LLM для генерации поисковых сводок (SGE), основываясь на контенте веб-сайтов, и итеративно уточняет ответы
Google использует Большие Языковые Модели (LLM) для создания сводок (AI-ответов) в результатах поиска. Для повышения точности и актуальности система подает в LLM не только запрос, но и контент из топовых результатов поиска (SRDs). Патент описывает, как система выбирает источники, генерирует сводку, проверяет факты, добавляет ссылки на источники (linkifying) и аннотации уверенности. Кроме того, система может динамически переписывать сводку, если пользователь взаимодействует с одним из источников.
  • US11769017B1
  • 2023-09-26
  • EEAT и качество

  • Ссылки

  • SERP

Как Google объединяет изображение с камеры и одновременный аудиовход (речь и звуки) для выполнения сложных мультимодальных поисковых запросов
Система мультимодального поиска Google, которая одновременно обрабатывает визуальные данные с камеры и аудиоданные с микрофона. Система извлекает визуальные признаки, транскрибирует речь и анализирует звуковые сигнатуры. Это позволяет пользователям задавать контекстные вопросы об объектах в кадре (например, «[Фото платья] + Найди такое же синее») или диагностировать проблемы по звуку и изображению (например, шум неисправного прибора), получая релевантные результаты из веб-поиска, поиска по картинкам или от генеративных моделей.
  • US12346386B2
  • 2025-07-01
  • Мультимедиа

  • Семантика и интент

Как Google объединяет изображения и текст в мультимодальном поиске для уточнения визуальных запросов
Google использует модель уточнения запросов для мультимодального поиска (например, в Google Lens). Система принимает эмбеддинг исходного изображения и текстовое уточнение от пользователя. Модель генерирует новый, уточненный эмбеддинг изображения, который объединяет визуальные данные с текстовым интентом. Этот новый эмбеддинг используется для поиска релевантных изображений в общем пространстве эмбеддингов, позволяя пользователям итеративно уточнять визуальный поиск текстом.
  • US20240370487A1
  • 2024-11-07
  • Мультимедиа

  • Семантика и интент

Популярные патенты

Как Google определяет основной контент страницы, анализируя визуальную структуру и характеристики разделов
Google использует систему для идентификации основного контента веб-страницы путем её разделения на логические разделы на основе визуального макета. Система оценивает характеристики каждого раздела (соотношение ссылок к тексту, количество слов, изображения, расположение) относительно характеристик всей страницы, чтобы выделить наиболее значимый контент и отделить его от навигации и шаблонов.
  • US20140372873A1
  • 2014-12-18
  • Структура сайта

  • Техническое SEO

  • Ссылки

Как Google использует машинное обучение и поведенческие данные для прогнозирования полезности документов и решает, что включать в поисковый индекс
Google использует модель машинного обучения для определения, какие документы включать в поисковый индекс. Модель обучается на исторических данных о кликах и показах, чтобы предсказать будущую «оценку полезности» (Utility Score) документа. Документы ранжируются по этой оценке, а также с учетом других факторов (например, PageRank, стоимость индексации, свежесть, квоты), и лучшие из них попадают в индекс.
  • US8255386B1
  • 2012-08-28
  • Индексация

  • Поведенческие сигналы

Как Google использует историю запросов, сделанных на Картах, для ранжирования локальных результатов и рекламы
Google анализирует, что пользователи ищут, когда просматривают определенную географическую область на карте (Viewport). Эта агрегированная история запросов используется для определения популярности локальных бизнесов и контента в этом конкретном районе. Результаты, которые часто запрашивались в этой области, особенно недавно, получают значительное повышение в ранжировании.
  • US9129029B1
  • 2015-09-08
  • Local SEO

  • Поведенческие сигналы

  • Свежесть контента

Как Google определяет географическую релевантность сайта по локали ссылающихся на него ресурсов и их аудитории
Google использует географические сигналы ссылающихся сайтов для определения локальной релевантности целевого домена. Система анализирует контент, технические данные и, что важно, географию аудитории ссылающихся ресурсов, чтобы вычислить «Link Based Locale Score». Эта оценка комбинируется с собственными сигналами сайта и используется для повышения позиций в релевантных географических регионах.
  • US8788490B1
  • 2014-07-22
  • Local SEO

  • Ссылки

  • SERP

Как Google определяет ключевые аспекты (фасеты) сущности для организации и диверсификации поисковой выдачи
Google использует систему для автоматической идентификации различных «аспектов» (подтем или фасетов) сущности в запросе. Анализируя логи запросов и базы знаний, система определяет, как пользователи исследуют информацию. Затем эти аспекты ранжируются по популярности и разнообразию и используются для организации результатов поиска в структурированном виде (mashup), облегчая пользователю навигацию и исследование темы.
  • US8458171B2
  • 2013-06-04
  • Семантика и интент

  • SERP

  • Поведенческие сигналы

Как Google генерирует связанные запросы (Related Searches), используя сущности из топовых результатов и сохраняя структуру исходного запроса
Google использует систему для автоматической генерации уточнений запросов (например, «Связанные запросы»). Система анализирует топовые документы в выдаче и извлекает из них ключевые сущности. Затем эти сущности комбинируются с важными терминами исходного запроса, при этом строго сохраняется исходный порядок слов, чтобы создать релевантные и естественно звучащие предложения для дальнейшего поиска.
  • US8392443B1
  • 2013-03-05
  • Семантика и интент

  • Поведенческие сигналы

Как Google игнорирует часто меняющийся контент и ссылки в нем, определяя "временные" блоки шаблона сайта
Google использует механизм для отделения основного контента от динамического шума (реклама, виджеты, дата). Система сравнивает разные версии одной страницы, чтобы найти часто меняющийся контент. Затем она анализирует HTML-структуру (путь) этого контента и статистически определяет, является ли этот структурный блок "временным" для всего сайта. Такой контент игнорируется при индексации и таргетинге рекламы, а ссылки в нем могут не учитываться при расчете PageRank.
  • US8121991B1
  • 2012-02-21
  • Индексация

  • Техническое SEO

  • Структура сайта

Как Google рассчитывает тематическую популярность (Topical Authority) документов на основе поведения пользователей
Google использует данные о посещаемости и навигации пользователей для расчета популярности документов. Система классифицирует документы и запросы по темам, а затем вычисляет популярность документа внутри каждой конкретной темы (Per-Topic Popularity). Эта метрика используется как сигнал ранжирования, когда тема запроса пользователя соответствует теме документа.
  • US8595225B1
  • 2013-11-26
  • Поведенческие сигналы

  • Семантика и интент

  • SERP

Как Google выбирает каноническую (основную) версию документа, основываясь на авторитетности источника и полноте контента
Google использует систему для выбора канонической (основной) версии документа среди его дубликатов. Система присваивает «приоритет авторитетности» каждой версии, основываясь на источнике (например, официальный издатель) и праве публикации. Основной версией выбирается та, которая имеет высокий авторитет и является полной. При отсутствии идеального варианта выбирается версия с наибольшим объемом информации (например, самая длинная или с наибольшим PageRank).
  • US8095876B1
  • 2012-01-10
  • EEAT и качество

  • Техническое SEO

  • Ссылки

Как Google использует историю поиска и браузинга для персонализации выдачи и определения предпочтений пользователя
Google записывает и анализирует историю действий пользователя: запросы, клики по результатам и рекламе, посещенные страницы. Система группирует связанные действия в сессии, определяет "Предпочитаемые локации" на основе частоты и времени визитов (stay-time), и использует эту историю для изменения порядка ранжирования, повышая позиции ранее посещенных сайтов в персональной выдаче.
  • US20060224583A1
  • 2006-10-05
  • Персонализация

  • Поведенческие сигналы

seohardcore