SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google использует обобщенные запросы для проверки визуального соответствия в Поиске по Картинкам

VISUAL RESTRICTIONS FOR IMAGE SEARCHES (Визуальные ограничения для поиска изображений)
  • US8751530B1
  • Google LLC
  • 2012-08-02
  • 2014-06-10
  • Семантика и интент
  • Мультимедиа
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google использует этот механизм для повышения точности поиска изображений, когда запрос содержит визуальные ограничения (например, ракурс или контекст). Система генерирует более общий запрос (например, «автомобиль вид сбоку» вместо «Subaru вид сбоку»), чтобы понять, как выглядит это ограничение в данной категории. Затем эти знания используются для фильтрации или переранжирования результатов исходного запроса, отдавая предпочтение изображениям, которые визуально соответствуют намерению пользователя.

Описание

Какую проблему решает

Патент решает проблему низкой точности (наличия false positives) в поиске изображений, когда запрос содержит как идентификатор объекта, так и специфическое визуальное ограничение (например, ракурс, контекст, время суток). Стандартные алгоритмы могут ошибочно ранжировать изображения, которые соответствуют объекту по текстовым сигналам, но не соответствуют визуальному ограничению (например, показывать вид спереди по запросу «вид сбоку»). Изобретение направлено на улучшение визуальной релевантности выдачи.

Что запатентовано

Запатентована система для обработки поисковых запросов изображений, содержащих семантическую (объект) и визуальную (ограничение) части. Суть изобретения заключается в генерации второго, обобщенного запроса, в котором конкретный объект заменяется на его более широкую категорию, а визуальное ограничение сохраняется. Результаты этого обобщенного поиска используются как эталонный набор данных для валидации, фильтрации или переранжирования результатов исходного, специфического запроса.

Как это работает

Система работает следующим образом:

  • Декомпозиция запроса (Q1Q_1Q1​): Исходный запрос (например, "Subaru Legacy вид сбоку") разделяется на семантическую часть (P1P_1P1​, объект) и визуальную часть (P2P_2P2​, ограничение).
  • Обобщение: Семантическая часть P1P_1P1​ обобщается до категории P3P_3P3​ (например, "автомобиль").
  • Обобщенный запрос (Q2Q_2Q2​): Формируется запрос из P3P_3P3​ и P2P_2P2​ ("автомобиль вид сбоку").
  • Параллельный поиск: Выполняется поиск по Q1Q_1Q1​ (Набор S1S_1S1​) и Q2Q_2Q2​ (Набор S2S_2S2​).
  • Валидация и переранжирование: S2S_2S2​ используется для оценки S1S_1S1​. Это может происходить двумя способами: 1) Обучение Image Classifier на S2S_2S2​ для распознавания визуального признака и применение его к S1S_1S1​; 2) Прямое вычисление визуального сходства (Measure of Similarity) между S1S_1S1​ и S2S_2S2​.

Актуальность для SEO

Высокая. Визуальный поиск и интеграция технологий компьютерного зрения (Computer Vision) в ранжирование являются ключевыми направлениями развития Google (включая Google Lens и мультимодальные модели). Этот патент описывает фундаментальный механизм для обеспечения визуальной релевантности, когда текстовые сигналы оказываются шумными или недостаточными. Точное понимание визуального контекста и ракурса критически важно для качества поиска изображений.

Важность для SEO

Патент имеет значительное влияние на SEO-стратегии в поиске по картинкам (Image SEO). Он демонстрирует, что текстовой оптимизации метаданных изображения (alt text, заголовок) недостаточно. Визуальное содержимое изображения должно явно соответствовать визуальным ограничениям в запросе. Система способна идентифицировать и понизить в ранжировании изображения, которые текстуально релевантны, но визуально не соответствуют интенту пользователя.

Детальный разбор

Термины и определения

Semantic Portion (Семантическая часть запроса, P1P_1P1​)
Часть запроса, идентифицирующая объект, который должен быть изображен (например, "Subaru Legacy").
Visual Portion / Context (Визуальная часть / Контекст, P2P_2P2​)
Часть запроса, определяющая визуальные характеристики или контекст, нейтральные по отношению к идентичности объекта (например, "вид сбоку", "ночью", ракурс камеры, orthographic projection).
Generalized Search Query Portion (Обобщенная часть запроса, P3P_3P3​) / Category
Более широкая версия семантической части запроса. Обычно это категория, к которой принадлежит объект поиска (например, "автомобиль").
Image Classifier (Классификатор изображений)
Инструмент (модель машинного обучения), используемый для определения релевантности изображения текстовому запросу. В патенте он может обучаться на результатах обобщенного запроса.
Function F(q,p)F(q,p)F(q,p)
Функция, реализуемая классификатором изображений, где q — представление запроса, p — представление изображения. Значение функции является основой для Relevance Score.
Image Representation (Представление изображения)
Численное представление визуального контента изображения (вектор признаков). Упоминаются bag of visterms, гистограммы цвета/текстуры, GIST features.
Measure of Similarity (Мера сходства)
Метрика, указывающая, насколько визуально похоже изображение из исходного набора (S1S_1S1​) на одно или несколько изображений из обобщенного набора (S2S_2S2​).
Category Database (База данных категорий)
Хранилище, связывающее ключевые слова с категориями.
Query Refinement Log (Журнал уточнений запросов)
Записи сессий поиска, используемые для определения статистических отношений обобщения между запросами.

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает основной метод улучшения поиска изображений.

  1. Система получает исходный запрос (initial search query), включающий (i) термины объекта и (ii) термины контекста (визуального ограничения).
  2. Определяется категория, связанная с объектом.
  3. Генерируется обобщенный запрос (generalized search query), включающий (i) термины категории и (ii) термины контекста.
  4. Получаются два набора результатов: исходный набор (S1S_1S1​) и обобщенный набор (S2S_2S2​).
  5. Производится выбор одного или нескольких изображений из S1S_1S1​, основываясь на индикации сходства (indication of similarity) между выбранными изображениями из S1S_1S1​ и изображениями из S2S_2S2​.

Claim 5 (Зависимый от 1): Уточняет, как генерируется индикация сходства с помощью машинного обучения (Вариант А).

  1. Image Classifier обучается с использованием изображений из обобщенного набора (S2S_2S2​).
  2. Индикация сходства генерируется путем классификации изображений из S1S_1S1​ с помощью обученного классификатора.

Claim 6 (Зависимый от 1): Уточняет, как генерируется индикация сходства с помощью прямого сравнения (Вариант Б).

  1. Генерируются первые представления (Image Representations) для изображений из S1S_1S1​.
  2. Генерируется второе представление на основе обобщенного набора S2S_2S2​ (например, усредненный вектор или центроид).
  3. Идентифицируются различия (дистанция) между первыми и вторым представлениями.
  4. Индикация сходства генерируется на основе этих различий.

Где и как применяется

Изобретение применяется исключительно в рамках вертикали Поиска по Картинкам (Image Search) и затрагивает несколько этапов поисковой архитектуры.

INDEXING – Индексирование и извлечение признаков
Для работы алгоритма необходимо, чтобы на этапе индексирования для изображений были вычислены и сохранены их визуальные представления (Image Representations, например, GIST features, векторы признаков).

QUNDERSTANDING – Понимание Запросов
На этом этапе система анализирует запрос Q1Q_1Q1​, чтобы разделить его на семантическую (P1P_1P1​) и визуальную (P2P_2P2​) части. Также здесь происходит процесс генерализации P1P_1P1​ в P3P_3P3​, что требует доступа к Category Database, Lexical Database или Query Refinement Logs.

RANKING – Ранжирование
Система выполняет два параллельных процесса поиска: для исходного запроса Q1Q_1Q1​ и для обобщенного запроса Q2Q_2Q2​.

RERANKING – Переранжирование
Основное применение патента. После получения двух наборов результатов (S1S_1S1​ и S2S_2S2​) система использует S2S_2S2​ для валидации и корректировки S1S_1S1​. Это этап, на котором применяются технологии компьютерного зрения для фильтрации или перевзвешивания результатов.

На что влияет

  • Типы контента: В первую очередь влияет на Поиск по Картинкам (Image Search). Особенно актуально для изображений товаров (e-commerce), фотографий объектов, где важен ракурс.
  • Специфические запросы: Запросы, содержащие визуальные модификаторы: ракурсы («front view», «side view», «top view»), условия съемки («at night»), специфические контексты.
  • Конкретные ниши: E-commerce, автомобильная тематика, недвижимость, дизайн.

Когда применяется

Алгоритм активируется при обнаружении в запросе комбинации идентифицируемого объекта (Semantic Portion) и визуального ограничения (Visual Portion). Система также должна быть способна успешно обобщить семантическую часть до категории, чтобы механизм сработал.

Пошаговый алгоритм

Патент описывает два основных варианта реализации.

Общие шаги (для обоих вариантов):

  1. Получение запроса: Получить первый запрос Q1Q_1Q1​.
  2. Парсинг запроса: Идентифицировать семантическую часть P1P_1P1​ (объект) и визуальную часть P2P_2P2​ (контекст).
  3. Обобщение: Идентифицировать обобщенную часть P3P_3P3​ (категорию) для P1P_1P1​, используя Category Database, Query Refinement Logs или лексическую базу.
  4. Генерация второго запроса: Сформировать второй запрос Q2Q_2Q2​ (P3P_3P3​ + P2P_2P2​).
  5. Выполнение поиска: Получить первый набор изображений (S1S_1S1​) для Q1Q_1Q1​ и второй набор (S2S_2S2​) для Q2Q_2Q2​.

Вариант А: Использование классификатора

  1. Обучение классификатора: Обучить Image Classifier (определить функцию F(q,p)F(q,p)F(q,p)), используя изображения из S2S_2S2​ как обучающие данные.
  2. Присвоение оценок: Присвоить новые Relevance Scores изображениям в S1S_1S1​, используя обученный классификатор.
  3. Вывод результатов: Предоставить изображения из S1S_1S1​ на основе новых оценок (переранжирование).

Вариант Б: Прямое сравнение сходства

  1. Генерация представлений: Получить Image Representation для изображения из S1S_1S1​ и представление одного или нескольких изображений из S2S_2S2​ (например, центроид).
  2. Определение сходства: Определить Measure of Similarity (например, вычислив расстояние между представлениями).
  3. Вывод результатов: Предоставить изображение из S1S_1S1​, только если мера сходства превышает порог (фильтрация), или отсортировать результаты на основе меры сходства.

Какие данные и как использует

Данные на входе

Патент фокусируется на механизме обработки запроса и визуальных данных.

  • Мультимедиа/Визуальные факторы: Критически важные данные. Система извлекает Image Representations (визуальные признаки) из изображений. Упоминаются конкретные типы представлений: bag of visterms, гистограммы цвета и текстуры, GIST features. Эти данные используются для обучения классификаторов или расчета визуального сходства.
  • Поведенческие факторы: Query Refinement Logs используются для анализа сессий пользователей и определения статистических связей между запросами для выявления обобщений (например, что «car» является обобщением «Subaru»).
  • Структурные/Системные данные: Для генерализации запроса используются внешние или внутренние базы данных:
    • Category Database: Сопоставляет ключевые слова с категориями.
    • Lexical Database (например, WordNet): Использует лексические отношения (genus-species) для определения категорий.

Какие метрики используются и как они считаются

  • Relevance Score (Оценка релевантности): В варианте А, рассчитывается путем вычисления функции F(q,p)F(q,p)F(q,p), которая обучается на наборе S2S_2S2​. Цель обучения — найти такую функцию F, чтобы F(q,p+)>F(q,p−)F(q, p^+) > F(q, p^-)F(q,p+)>F(q,p−) (релевантное изображение получает более высокую оценку, чем нерелевантное).
  • Measure of Similarity (Мера сходства): В варианте Б, метрика рассчитывается на основе расстояния (distance) или разницы (difference) между Image Representations из S1S_1S1​ и S2S_2S2​.
  • Thresholds (Пороги): Используются для принятия решения о показе изображения. Изображение показывается, если его новый Relevance Score или Measure of Similarity превышает заданный порог.

Выводы

  1. Визуальная валидация текстовой релевантности: Патент подтверждает, что Google активно использует компьютерное зрение для проверки и уточнения результатов поиска изображений. Текстовое соответствие (метаданные, окружающий текст) является лишь первым шагом; визуальное содержимое должно подтверждать интент запроса, особенно при наличии визуальных ограничений.
  2. Обучение «на лету» через обобщение: Ключевая концепция — способность системы изучать визуальные концепции (например, что такое "вид сбоку" для категории объектов) в реальном времени, используя результаты обобщенного поиска (S2S_2S2​) как обучающую выборку или эталон.
  3. Генерализация как ключевая стратегия: Обобщение специфического запроса до его категории является центральным элементом механизма. Это позволяет системе понять базовый визуальный интент, изолировав его от конкретного объекта.
  4. Активная борьба с ложными срабатываниями (False Positives): Механизм направлен на устранение ситуаций, когда изображение оптимизировано под запрос текстуально, но показывает объект в неправильном ракурсе или контексте.
  5. Гибкость реализации: Система может использовать как сложные модели машинного обучения (Image Classifier), так и более прямые методы компьютерного зрения (сравнение визуального сходства), что обеспечивает гибкость в выборе метода.

Практика

Best practices (это мы делаем)

  • Обеспечение строгого визуального соответствия интенту: Убедитесь, что визуальное содержание изображения точно соответствует предполагаемым визуальным ограничениям в целевых запросах. Если страница оптимизирована под "вид спереди" товара, изображение должно строго показывать вид спереди.
  • Использование четких и канонических изображений: Используйте высококачественные изображения, на которых объект и его ракурс (или контекст) легко идентифицируются. Ваше изображение должно быть хорошим визуальным представителем своей категории с заданным ракурсом (например, соответствовать эталонам для "обувь вид сверху").
  • Анализ визуальных паттернов в нише (Эталонный набор S2): Изучите выдачу по обобщенным запросам в вашей категории (например, «[категория товара] вид сбоку»). Ваши изображения конкретных товаров должны соответствовать этим общим визуальным паттернам, чтобы пройти валидацию алгоритмом.
  • Разнообразие ракурсов (для E-commerce): При предоставлении нескольких изображений товара убедитесь, что каждое изображение четко представляет свой ракурс и имеет соответствующую текстовую оптимизацию (в alt text, подписях или окружающем тексте).

Worst practices (это делать не надо)

  • Манипуляция метаданными (Keyword Stuffing): Добавление визуальных ключевых слов (например, "вид сбоку") в Alt text или имена файлов, если само изображение не соответствует этому описанию. Этот патент напрямую направлен на выявление такого несоответствия.
  • Использование сложных или "художественных" композиций для утилитарных запросов: Если пользователь ищет конкретный ракурс объекта (например, в целях покупки), использование изображений с нестандартными углами или сложным фоном может привести к понижению, так как система не сможет подтвердить визуальное соответствие эталону.
  • Использование неоднозначных ракурсов: Попытка оптимизировать одно изображение под несколько визуальных интентов (например, ракурс 3/4 для запросов «вид спереди» и «вид сбоку») может привести к низким оценкам Measure of Similarity.

Стратегическое значение

Патент подчеркивает переход от чисто текстовых моделей поиска изображений к гибридным моделям, глубоко интегрирующим компьютерное зрение. Для SEO-специалистов это означает, что анализ визуального контента становится неотъемлемой частью оптимизации. Стратегия должна включать не только работу с текстом, но и управление визуальными активами, гарантируя их качество, четкость и соответствие интенту пользователя на визуальном уровне.

Практические примеры

Сценарий: Оптимизация карточки товара в E-commerce (Кроссовки)

  1. Целевой запрос (Q1): «Nike Air Max 90 вид сверху».
  2. Анализ категории: Google обобщает запрос до Q2: «Кроссовки вид сверху».
  3. Действия SEO-специалиста:
    • Изучить выдачу по Q2, чтобы понять, какие изображения Google считает эталонными для «вида сверху» кроссовок (композиция, освещение, фон).
    • Создать высококачественное изображение Nike Air Max 90, сделанное строго сверху, которое визуально похоже на эталоны из Q2.
    • Оптимизировать метаданные: alt="Nike Air Max 90 - вид сверху".
  4. Ожидаемый результат: Когда система будет обрабатывать запрос Q1, она сравнит ваше изображение с эталонами из Q2. Благодаря высокому визуальному сходству (высокая Measure of Similarity) и точным метаданным, изображение получит высокий рейтинг в поиске по картинкам по запросу Q1. Если бы использовалось фото под углом, оно было бы понижено.

Вопросы и ответы

Как система определяет, какая часть запроса является семантической (объект), а какая — визуальной (контекст)?

Патент предполагает, что система способна выполнить эту декомпозицию. Визуальная часть определяется как содержащая ключевые слова, которые нейтральны по отношению к идентичности объекта. Это могут быть указания на ракурс ("side view", "top view"), время суток или положение камеры. На практике это реализуется через алгоритмы понимания запросов (Query Understanding), которые распознают стандартные визуальные модификаторы.

Как именно система обобщает объект до категории?

Патент описывает три метода. Первый — использование заранее подготовленной Category Database. Второй — анализ журналов уточнений запросов (Query Refinement Logs) для поиска статистических связей (если "Subaru" часто встречается в сессиях, где есть "Car", но не наоборот). Третий — использование лексических баз данных, таких как WordNet, для определения таксономических связей.

Что такое Image Representation и почему это важно для SEO?

Image Representation — это способ представления визуального контента в виде числового вектора признаков (например, GIST features, гистограммы, bag of visterms). Это "язык", на котором алгоритмы компьютерного зрения анализируют и сравнивают изображения. Для SEO это важно, потому что именно на основе сравнения этих векторов (а не пикселей или текста) система определяет визуальное сходство и релевантность изображения запросу.

В патенте описано два метода валидации: классификатор и прямое сравнение. Какой из них используется Google?

Патент описывает оба метода как возможные варианты реализации (embodiments). На практике поисковые системы часто используют комбинацию подходов. Обучение классификатора (Метод А) может быть более точным для определения релевантности запросу, тогда как прямое сравнение визуального сходства (Метод Б) может использоваться для быстрой фильтрации. Оба метода служат одной цели: гарантировать визуальное соответствие.

Если я использую очень качественное, но нестандартное (художественное) фото товара, повредит ли это ранжированию?

Да, это может повредить, если целевой запрос предполагает утилитарный интент с визуальными ограничениями (например, "товар X вид сбоку"). Система будет сравнивать ваше фото с обобщенным набором результатов, который, вероятно, состоит из стандартных изображений этого ракурса. Если ваше нестандартное фото будет иметь низкое визуальное сходство с этим эталонным набором, оно может быть расценено как менее релевантное.

Означает ли этот патент, что alt-текст больше не важен для Image SEO?

Нет, ALT-текст и окружающий текст по-прежнему важны для базового ранжирования и определения релевантности семантической части запроса (объекта). Однако этот патент показывает, что для запросов с визуальными ограничениями Google применяет дополнительный слой валидации, основанный на анализе пикселей. Если визуальное содержание не соответствует текстовому описанию, изображение может быть пессимизировано.

Как этот механизм работает с новыми или редкими объектами, для которых сложно определить категорию?

Если система не может надежно определить обобщенную категорию (P3P_3P3​) для объекта (P1P_1P1​), весь механизм, вероятно, не будет активирован. В таких случаях система будет полагаться на стандартные алгоритмы ранжирования изображений, которые могут быть менее точными в интерпретации визуальных ограничений.

Применяется ли этот механизм только к ракурсам?

Нет. Патент определяет визуальную часть (контекст) широко. Она может относиться ко времени суток (например, «Эйфелева башня ночью»), ракурсу («вид сбоку»), а также к контексту, например, «Джон Смит в кожаной куртке». Во всех этих случаях, если ограничение нейтрально к объекту, система может использовать обобщение для проверки.

Нужно ли мне оптимизировать изображения под обобщенные запросы (например, "автомобиль вид сбоку")?

Напрямую оптимизировать под них не обязательно, но ваше изображение должно быть визуально сильным представителем этой категории. Если ваше изображение "Subaru вид сбоку" выглядит странно или нетипично по сравнению с другими изображениями "автомобилей вид сбоку" (эталонным набором S2S_2S2​), система может понизить его в выдаче по исходному запросу.

Как проверить, соответствует ли мое изображение визуальным ожиданиям Google?

Хорошей практикой является ручной анализ выдачи по обобщенному запросу, соответствующему вашему объекту и ракурсу (например, поиск "куртка вид спереди"). Это даст представление об эталонном наборе изображений (S2S_2S2​), с которым Google, вероятно, будет сравнивать ваш контент. Ваше изображение должно визуально вписываться в этот набор.

Похожие патенты

Как Google использует машинное обучение для распознавания разных смыслов запроса и ранжирования изображений в Image Search
Google использует модель машинного обучения для улучшения ранжирования в поиске по картинкам. Система определяет различные смыслы (senses) неоднозначного запроса (например, "Jaguar" как автомобиль и как животное), проецирует изображения в многомерное пространство признаков и строит гиперплоскости (hyperplanes) для разделения этих смыслов. Итоговый ранг изображения определяется его близостью к любому из релевантных смыслов.
  • US8923655B1
  • 2014-12-30
  • Семантика и интент

  • Мультимедиа

  • SERP

Как Google использует query-specific модели для переранжирования изображений на основе их визуальных характеристик в реальном времени
Google использует систему для корректировки ранжирования изображений непосредственно в момент запроса (онлайн). Для популярных запросов система заранее обучает индивидуальные модели релевантности на основе исторических данных о кликах. При получении нового запроса система активирует наиболее подходящую модель и использует визуальные характеристики (цвет, текстура) для переоценки и переранжирования результатов, обеспечивая точное соответствие визуального контента интенту пользователя.
  • US10311096B2
  • 2019-06-04
  • Мультимедиа

  • SERP

  • Поведенческие сигналы

Как Google комбинирует текстовый запрос и изображение-образец для уточнения поиска по картинкам
Google использует механизм для обработки гибридных запросов (текст + изображение). Система находит изображения, которые одновременно релевантны тексту и визуально похожи на образец. Для этого создаются компактные визуальные дескрипторы и используются "визуальные ключи" для быстрого поиска. Финальная выдача ранжируется по степени визуального сходства с образцом.
  • US9043316B1
  • 2015-05-26
  • Мультимедиа

  • Семантика и интент

Как Google использует несколько изображений в одном запросе для уточнения визуального поиска через общие атрибуты и проекции эмбеддингов
Google использует механизм поиска, принимающий на вход два или более изображения. Система анализирует их для выявления общих атрибутов (стиль, цвет, тип объекта) и генерирует векторные представления (эмбеддинги). Если изображения вводятся последовательно, система вычисляет «траекторию» интереса пользователя в векторном пространстве и проецирует поиск в этом направлении, чтобы найти результаты, соответствующие эволюционирующему визуальному интенту.
  • US12271417B2
  • 2025-04-08
  • Мультимедиа

  • Семантика и интент

Как Google комбинирует визуальное сходство и семантические метки для улучшения поиска по картинке (Visual Search)
Google использует систему поиска по изображению, которая сочетает анализ визуальных характеристик и семантических меток. Система генерирует высокоточные метки (High Confidence Labels) для изображения, анализируя текст, связанный с визуально похожими картинками в интернете. Затем она ранжирует кандидатов, используя модель визуального сходства, обученную на основе человеческих оценок, и применяет правила фильтрации для обеспечения однородности результатов.
  • US8429173B1
  • 2013-04-23
  • Семантика и интент

  • Мультимедиа

  • SERP

Популярные патенты

Как Google использует консенсус анкорных текстов для определения авторитетных источников и проверки фактов в Knowledge Graph
Google определяет, является ли веб-страница авторитетным источником о конкретной сущности (Entity), анализируя все анкорные тексты входящих ссылок. Система находит консенсусное описание (Center of Mass). Если оно совпадает с именем сущности и это имя присутствует в заголовке страницы, документ используется как эталон для проверки (Corroboration) фактов в базе знаний Google (Fact Repository).
  • US9208229B2
  • 2015-12-08
  • Knowledge Graph

  • Ссылки

  • EEAT и качество

Как Google использует данные о поведении пользователей внутри документов (время чтения разделов, закладки) для улучшения ранжирования
Google может собирать и анализировать данные о том, как пользователи взаимодействуют с электронными документами (например, PDF, DOC, HTML). Система отслеживает, какие разделы или страницы просматриваются дольше всего или добавляются в закладки. Эта агрегированная информация используется для повышения в ранжировании документов, чьи ключевые слова находятся в наиболее используемых (и, следовательно, ценных) разделах.
  • US8005811B2
  • 2011-08-23
  • Поведенческие сигналы

  • SERP

Как Google снижает ценность кликов по результатам, полученным из слишком общих запросов
Google использует механизм для корректировки показателей популярности (например, кликов) документа. Если документ получил клик в ответ на очень общий (широкий) запрос, ценность этого клика снижается. Это предотвращает искусственное завышение популярности документов, которые часто показываются по высокочастотным общим запросам, и повышает значимость кликов, полученных по более специфическим запросам.
  • US7925657B1
  • 2011-04-12
  • Поведенческие сигналы

Как Google использует историю уточнений запросов для выявления и повышения авторитетных сайтов по широким запросам
Google анализирует последовательности запросов пользователей, чтобы понять, как они уточняют свои поисковые намерения. Если пользователи часто переходят от широкого или неточного запроса к более конкретному, который ведет на авторитетный ресурс, Google связывает этот ресурс с исходным широким запросом. Это позволяет показывать авторитетный сайт выше в выдаче, даже если пользователь сформулировал запрос неточно.
  • US8326826B1
  • 2012-12-04
  • Семантика и интент

  • Поведенческие сигналы

  • EEAT и качество

Как Google проактивно уведомляет пользователей об изменении цен или доступности товаров на основе их предполагаемого намерения покупки
Google анализирует действия пользователя (поисковые запросы, посещения сайтов), чтобы выявить намерение в отношении сущностей (например, продуктов или авиабилетов). Если намерение сильное и происходит значительное изменение (падение цены или изменение доступности), Google проактивно отправляет уведомление со ссылками для завершения действия (например, покупки).
  • US20180357238A1
  • 2018-12-13
  • Семантика и интент

  • Поведенческие сигналы

  • Персонализация

Как Google рассчитывает «сигнал конкурентоспособности» (Competition Signal) страниц на основе анализа кликов, показов и времени взаимодействия
Google оценивает качество страниц, анализируя их «победы» и «поражения» в поисковой выдаче. Система сравнивает, как часто пользователи выбирают данный URL вместо других и как долго они взаимодействуют с контентом по сравнению с конкурентами (Dwell Time). На основе этих данных рассчитывается корректирующий фактор, который повышает или понижает позиции страницы, отражая её относительную конкурентоспособность и удовлетворенность пользователей.
  • US9020927B1
  • 2015-04-28
  • Поведенческие сигналы

  • SERP

  • EEAT и качество

Как Google использует личные данные пользователя (User Model) для понимания его намерений и персонализации выдачи
Google создает персональную модель пользователя (User Model) на основе его личного контента (письма, контакты, документы). Эта модель используется для определения неявного намерения пользователя (личный поиск или общий) и для аннотирования запроса контекстом из личных данных, чтобы предоставить точные персонализированные результаты.
  • US20150012558A1
  • 2015-01-08
  • Персонализация

  • Семантика и интент

  • Поведенческие сигналы

Как Google индексирует контент внутри мобильных приложений для показа в результатах поиска (App Indexing)
Google использует механизм для индексации контента, который пользователи просматривают в нативных мобильных приложениях. Система получает данные о просмотренном контенте и deep links напрямую от приложения на устройстве. Эта информация сохраняется в индексе (персональном или публичном) и используется для генерации результатов поиска, позволяя пользователям переходить к контенту внутри приложений напрямую из поисковой выдачи.
  • US10120949B2
  • 2018-11-06
  • Индексация

  • SERP

  • Персонализация

Как Google понижает в выдаче результаты, которые пользователь уже видел или проигнорировал в рамках одной поисковой сессии
Google использует механизм для улучшения пользовательского опыта во время длительных поисковых сессий. Если пользователь вводит несколько связанных запросов подряд, система идентифицирует результаты, которые уже появлялись в ответ на предыдущие запросы. Эти повторяющиеся результаты понижаются в ранжировании для текущего запроса, чтобы освободить место для новых, потенциально более полезных страниц. Понижение контролируется порогом релевантности, чтобы не скрывать важный контент.
  • US8051076B1
  • 2011-11-01
  • SERP

  • Поведенческие сигналы

Как Google использует время взаимодействия пользователя с сайтом (Dwell Time) для расчета оценки качества всего сайта
Google использует агрегированные данные о продолжительности визитов пользователей на сайт для расчета метрики качества этого сайта (Site Quality Score). Система измеряет время взаимодействия (включая Dwell Time — время от клика в выдаче до возврата обратно), фильтрует аномальные визиты и нормализует данные по типам контента. Итоговая оценка используется как независимый от запроса сигнал для ранжирования и принятия решений об индексировании.
  • US9195944B1
  • 2015-11-24
  • Поведенческие сигналы

  • Индексация

  • SERP

seohardcore