SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google распознает и связывает объекты на изображении с результатами поиска (Архитектура Google Lens)

USER INTERFACE FOR PRESENTING SEARCH RESULTS FOR MULTIPLE REGIONS OF A VISUAL QUERY (Пользовательский интерфейс для представления результатов поиска по нескольким областям визуального запроса)
  • US9087059B2
  • Google LLC
  • 2010-08-04
  • 2015-07-21
  • Мультимедиа
  • Ссылки
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google использует систему параллельных поисковых движков (OCR, распознавание лиц, объектов, продуктов) для анализа визуального запроса (изображения). Система создает интерактивный документ, накладывая на исходное изображение визуальные идентификаторы (например, рамки или метки) для распознанных объектов. Эти идентификаторы служат ссылками на конкретные результаты поиска для каждого объекта.

Описание

Какую проблему решает

Патент решает проблему обработки и представления результатов для сложных визуальных запросов (изображений), которые содержат несколько различных объектов или типов информации (например, текст, лицо и продукт на одном фото). Стандартный список результатов не позволяет пользователю легко понять, какой результат соответствует какому объекту. Изобретение улучшает пользовательский опыт (UX) в визуальном поиске, обеспечивая прямую связь между объектами на изображении и результатами поиска по ним.

Что запатентовано

Запатентована система и пользовательский интерфейс (UI) для визуального поиска. Суть изобретения заключается в методе параллельной обработки визуального запроса несколькими специализированными поисковыми системами (Parallel Search Systems) и последующей агрегации результатов в interactive results document. Этот документ визуально связывает конкретные результаты поиска с соответствующими подобластями (sub-portions) исходного изображения с помощью кликабельных идентификаторов.

Как это работает

Система функционирует следующим образом:

  • Получение запроса: Пользователь отправляет изображение (Visual Query).
  • Параллельная обработка: Front End Server направляет запрос одновременно в несколько поисковых систем (например, распознавание лиц, OCR, объектов, продуктов).
  • Агрегация и локализация: Система собирает результаты и определяет координаты (подобласти) распознанных элементов на исходном изображении.
  • Создание интерфейса: Генерируется interactive results document. На распознанные области накладываются visual identifiers (например, bounding boxes или labels), или создается структурированный список с миниатюрами (thumbnails) распознанных областей.
  • Взаимодействие: Пользователь может кликнуть на идентификатор или миниатюру, чтобы увидеть результаты поиска, относящиеся именно к этому объекту.

Актуальность для SEO

Высокая. Описанные в патенте механизмы лежат в основе современных продуктов визуального поиска, таких как Google Lens. Способность распознавать несколько объектов в поле зрения камеры и предоставлять интерактивные результаты для каждого из них является ключевой функцией мобильных поисковых интерфейсов в 2025 году.

Важность для SEO

Влияние на SEO среднее (6/10). Патент напрямую не описывает алгоритмы ранжирования веб-страниц для текстовых запросов. Однако он имеет критическое значение для понимания того, как Google анализирует изображения и извлекает из них сущности, текст и информацию о продуктах. Это напрямую влияет на стратегии Image SEO, видимость товаров в Google Shopping и потенциал получения трафика через визуальный поиск (например, Google Lens).

Детальный разбор

Термины и определения

Visual Query (Визуальный запрос)
Изображение (фотография, скан, скриншот, кадр видео), которое отправляется в поисковую систему в качестве запроса.
Parallel Search Systems / Image Search Components (Параллельные поисковые системы / Компоненты поиска изображений)
Несколько специализированных систем, которые одновременно обрабатывают визуальный запрос. Примеры: Face Recognition Search System (распознавание лиц), OCR Search System (распознавание текста), Image-to-Terms Search System (распознавание объектов/категорий), распознавание штрихкодов, продуктов.
Front End Visual Query Processing Server (Внешний сервер обработки визуальных запросов)
Центральный компонент системы, который получает запрос, распределяет его по параллельным системам, агрегирует результаты и создает интерфейс.
Interactive Results Document (Интерактивный документ результатов)
Пользовательский интерфейс, создаваемый системой для представления результатов. Может включать исходное изображение с наложенными интерактивными элементами или структурированную страницу выдачи.
Sub-portion / Region (Подобласть / Область)
Конкретная область или регион исходного визуального запроса, в котором был распознан объект, текст или лицо.
Visual Identifier (Визуальный идентификатор)
Элемент интерфейса, который выделяет sub-portion и содержит кликабельную ссылку на результаты поиска. Может быть реализован как Bounding Box, Label или Thumbnail image.
Bounding Box (Ограничивающая рамка)
Визуальный идентификатор в виде рамки (прямоугольной или повторяющей контур объекта), окружающей распознанную подобласть.
Thumbnail image (Миниатюра)
Уменьшенное изображение, связанное с определенной областью запроса, используемое для иллюстрации результата на странице выдачи (согласно Claim 1).
Term Query Server System (Система сервера текстовых запросов)
Система для выполнения традиционного поиска по тексту. Используется для поиска дополнительной информации о распознанных сущностях или тексте из визуального запроса.

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает метод генерации страницы результатов поиска (SERP) для визуального запроса, фокусируясь на структуре выдачи (Col. 27-28).

  1. Система получает результаты от как минимум двух разных компонентов поиска изображений (first and second image search components / Parallel Search Systems), которым был отправлен запрос.
  2. Выбираются конкретные ресурсы (результаты) от первого и второго компонентов.
  3. Определяются области (region / sub-portion) исходного изображения, которые ассоциированы с каждым из этих результатов.
  4. Генерируется страница результатов поиска (Image Search Results Page), которая включает:
    • В первой области SERP (связанной с первым компонентом): интерактивный результат, включающий thumbnail image (миниатюру), связанную с определенной областью исходного запроса, и ссылку на найденный ресурс.
    • Во второй (отличной от первой) области SERP (связанной со вторым компонентом): аналогичный интерактивный результат с миниатюрой и ссылкой.
    • В третьей области SERP: область, связанная с исходным запросом.

Claim 1 описывает структурированную выдачу (как на FIG. 15 патента), где результаты от разных движков представлены в разных секциях SERP и используют миниатюры, вырезанные из исходного запроса, для иллюстрации того, что было найдено.

Claim 2 (Зависимый от 1): Уточняет, что представление определенной области включает bounding box (ограничивающую рамку), которая очерчивает границу распознанной сущности в подобласти исходного изображения.

Claim 4 (Зависимый от 2): Описывает визуальное форматирование bounding box (например, цвет, стиль) на основе идентифицированного типа сущности (например, продукт, лицо, текст).

Claim 5 (Зависимый от 1): Описывает интеграцию с текстовым поиском. Если область изображения содержит текстовый элемент, метод включает получение дополнительных результатов от term query search component на основе этого текста и добавление их на страницу.

Claim 6 (Зависимый от 1): Описывает обработку лиц. Если область изображения содержит изображение лица, метод включает идентификацию атрибутов, связанных с человеком (например, имя, контактная информация, согласно описанию патента), и добавление этих атрибутов на страницу результатов.

Где и как применяется

Патент описывает архитектуру системы визуального поиска (например, Google Lens), которая функционирует параллельно основному веб-поиску.

INDEXING – Индексирование (Предпосылка)
Параллельные поисковые системы (Parallel Search Systems) полагаются на собственные специализированные индексы (например, Facial Image Database, Image Search Database), которые должны быть предварительно созданы и наполнены данными на этапе индексирования.

QUNDERSTANDING – Понимание Запросов (Визуальных)
Front End Visual Query Processing Server получает визуальный запрос и распределяет его. Также сюда относится опциональная предварительная обработка на стороне клиента (Local image analysis) для распознавания типов контента (например, обнаружение лиц или штрихкодов).

RANKING – Ранжирование (Визуальное)
Каждая из параллельных поисковых систем независимо обрабатывает запрос, извлекает кандидатов из своего индекса и ранжирует их, вычисляя оценки релевантности (relevancy score).

METASEARCH – Метапоиск и Смешивание / RERANKING – Переранжирование
Front End Server агрегирует результаты от всех параллельных систем. Модули Results Filtering и Results Ranking & Formatting фильтруют и определяют итоговый порядок результатов. На этом этапе происходит создание пользовательского интерфейса (Interactive Results Document / Image Search Results Page) и смешивание результатов разных модальностей.

Входные данные:

  • Визуальный запрос (изображение).
  • Опционально: результаты предварительного анализа на клиенте.
  • Опционально: Геолокационные данные клиента (для распознавания мест).

Выходные данные:

  • Страница результатов поиска, которая может включать Interactive Results Document (изображение с интерактивными наложениями) и/или категоризированный список результатов поиска с миниатюрами (thumbnails).

На что влияет

  • Типы контента и ниши: Влияет на все области, где применим визуальный поиск. Особенно сильно влияет на E-commerce (распознавание продуктов, штрих-кодов), локальный поиск (распознавание достопримечательностей, текста на вывесках) и информацию (распознавание объектов, логотипов, лиц).
  • Специфические запросы: Применяется к запросам, поданным через интерфейсы визуального поиска (например, загрузка фото, Google Lens).

Когда применяется

  • Условия работы: Алгоритм активируется при получении визуального запроса от пользователя.
  • Триггеры активации: Генерация интерактивного документа или структурированной выдачи происходит, когда система обнаруживает одну или несколько распознаваемых сущностей в рамках одного изображения, и результаты для них превышают пороговые значения релевантности.

Пошаговый алгоритм

Процесс обработки визуального запроса

  1. Получение запроса: Клиент получает изображение от пользователя.
  2. (Опционально) Предварительная обработка на клиенте: Локальный анализ изображения для распознавания типов (например, обнаружение лиц, штрихкодов).
  3. Отправка на сервер: Визуальный запрос отправляется на Front End Server.
  4. Параллельная обработка: Сервер отправляет запрос одновременно нескольким специализированным поисковым системам (OCR, распознавание лиц, объектов и т.д.).
  5. Агрегация результатов: Сервер собирает ответы и оценки релевантности от параллельных систем. Система определяет, какая конкретная sub-portion исходного изображения соответствует каждому результату.
  6. Ранжирование и фильтрация: Результаты фильтруются и ранжируются. Может вычисляться category weight для упорядочивания групп результатов.
  7. (Опционально) Дополнение текстовым поиском: Распознанный текст или сущности могут инициировать поиск в Term Query Server System.
  8. Форматирование выдачи (SERP):
    1. Создание структурированного списка (согласно Claim 1): Генерация списка, организованного по категориям (компонентам), с использованием миниатюр (thumbnails) распознанных областей.
    2. Создание Interactive Results Document (согласно описанию и зависимым Claims): Генерация Visual Identifiers (рамок или меток) для идентифицированных подобластей. Применение визуального кодирования типа сущности (например, цвет рамки).
  9. Отправка пользователю: Результаты отправляются на клиент.
  10. Обработка взаимодействия: Когда пользователь выбирает визуальный идентификатор или миниатюру, система выделяет или показывает связанные с ним результаты.

Какие данные и как использует

Данные на входе

  • Мультимедиа факторы: Пиксельные данные изображения (Visual Query). Система анализирует паттерны для распознавания текста, лиц, объектов, логотипов и т.д.
  • Географические факторы: GPS или другие данные о местоположении клиента могут использоваться для помощи в распознавании мест (place recognition).
  • Пользовательские факторы: Данные о пользователе и его социальные связи (Social Network Database) могут использоваться в контексте системы распознавания лиц для идентификации людей и предоставления информации о них (имя, контакты, текущее местоположение связанного устройства, согласно описанию и Claim 6). Тип клиентского устройства (мобильное или настольное).

Какие метрики используются и как они считаются

  • Relevancy Score / Match Quality Score (Оценка релевантности / Качества совпадения): Каждая параллельная система вычисляет собственные оценки для ранжирования своих результатов.
  • Confidence Value (Оценка уверенности): Может использоваться при предварительной обработке на клиенте для оценки вероятности того, что подобласть содержит определенный тип объекта (лицо, текст).
  • Category Weight (Вес категории): Метрика для упорядочивания категорий результатов на SERP. В патенте указано, что это может быть комбинация весов N лучших результатов в этой категории.
  • Пороговые значения (Thresholds): Используются для фильтрации результатов с низкой релевантностью. Если система не находит релевантных совпадений, она возвращает null value.
  • Методы анализа: Патент явно перечисляет методы, реализуемые параллельными системами: OCR, Facial Recognition, Product recognition, Bar code recognition, Object-or-object-category recognition, Color recognition, Named Entity Recognition.

Выводы

  1. Мультимодальная архитектура визуального поиска: Патент демонстрирует, что Google обрабатывает визуальные запросы не одним алгоритмом, а набором параллельных специализированных систем (Parallel Search Systems). Это ключевой аспект архитектуры визуального поиска.
  2. Декомпозиция изображений: Система анализирует изображения не как единое целое, а как совокупность подобластей (sub-portions). Google стремится идентифицировать отдельные сущности (текст, лица, объекты) внутри одного изображения.
  3. Интерактивный UI как ключевой элемент (Google Lens): Основной фокус патента — это пользовательский интерфейс (Interactive Results Document и структурированный SERP), который напрямую связывает результаты поиска с конкретным местом на изображении с помощью визуальных идентификаторов (рамок, меток или миниатюр).
  4. Различение и классификация типов сущностей: Система способна классифицировать распознанные объекты по типам и использовать эту информацию для визуального кодирования (например, разный цвет рамок) и организации выдачи по категориям.
  5. Интеграция визуального и текстового поиска: Система активно связывает визуальные данные с текстовыми через OCR и Image-to-Terms, автоматически запуская текстовые запросы для обогащения выдачи.

Практика

Best practices (это мы делаем)

Рекомендации направлены на оптимизацию под визуальный поиск (Visual Search Optimization), так как патент описывает именно эту систему (например, Google Lens).

  • Оптимизация изображений для распознавания объектов: Используйте четкие, высококачественные изображения продуктов, логотипов и лиц. Патент подтверждает, что система стремится изолировать и идентифицировать каждый объект (object recognition). Четкость повышает вероятность корректного распознавания специализированными движками.
  • Обеспечение читаемости текста на изображениях (OCR): Если на изображении есть текст (например, на упаковке продукта или инфографике), он должен быть максимально четким и контрастным. OCR Search System работает параллельно, и четкий текст может стать отдельным вектором поиска и источником данных для Term Queries.
  • Создание визуальной ясности: Убедитесь, что доминирующие объекты на изображении имеют четкие границы и не сливаются с фоном. Это поможет системе корректно применить Bounding Box и создать точную миниатюру (thumbnail).
  • Использование микроразметки (Schema.org): Активно применять разметку для продуктов (Product). Это помогает связать распознанное изображение с сущностью в Knowledge Graph, что позволяет Google предоставлять "действенные результаты" (actionable search results), такие как опция покупки продукта или информация о персоне, упомянутые в патенте.

Worst practices (это делать не надо)

  • Использование перегруженных или низкокачественных изображений: Изображения низкого разрешения, с плохим освещением или где объекты сливаются друг с другом, затрудняют системе выделение отдельных sub-portions и снижают вероятность распознавания.
  • Агрессивное наложение водяных знаков: Наложение элементов поверх основного объекта или важного текста может помешать корректному распознаванию этих элементов соответствующими параллельными системами.
  • Игнорирование потенциала визуального поиска для E-commerce: Недооценка того, что пользователи могут искать товары через визуальный поиск. Если изображения продукта не оптимизированы для распознавания, сайт теряет потенциальный трафик из Google Lens.

Стратегическое значение

Патент раскрывает техническую основу и философию интерфейсов типа Google Lens. Это подтверждает стратегический фокус Google на развитии визуального поиска как альтернативы текстовому. Для SEO это означает возрастающую важность оптимизации визуального контента (Image SEO). Бренды и ритейлеры должны учитывать, что изображения на их сайтах должны быть оптимизированы для максимальной распознаваемости системами Product recognition и OCR.

Практические примеры

Сценарий: Оптимизация изображения товара для E-commerce под визуальный поиск

  1. Цель: Убедиться, что при визуальном запросе система корректно распознает товар, бренд и текст на упаковке.
  2. Действие: Разместить на сайте высококачественную фотографию товара на контрастном фоне. Убедиться, что название товара (для OCR), логотип бренда (для Logo Match) и сам продукт (для Product Recognition) четко видны. Добавить микроразметку Schema.org/Product.
  3. Ожидаемый результат (согласно патенту): Когда пользователь использует это изображение как Visual Query, система Google задействует несколько параллельных систем. Она сгенерирует Image Search Results Page. Согласно Claim 1, она покажет структурированный список с отдельными областями для "Product Match" и "Logo Match", используя миниатюры (thumbnails) распознанных элементов. Пользователю предлагается результат, ведущий на оптимизированную карточку товара с опцией покупки (actionable search result).

Вопросы и ответы

Описывает ли этот патент, как ранжируются изображения в Google Images?

Нет. Патент описывает архитектуру и интерфейс для обработки визуальных запросов, то есть когда пользователь сам загружает изображение или использует камеру (как в Google Lens). Он объясняет, как результаты обрабатываются и показываются пользователю в этом интерфейсе, а не то, как Google ранжирует изображения в своем основном индексе.

Что такое "параллельные поисковые системы" в контексте этого патента?

Это специализированные поисковые движки (компоненты), которые работают одновременно для анализа одного изображения. Патент упоминает распознавание лиц (Facial Recognition), оптическое распознавание текста (OCR), распознавание объектов (Image-to-Terms), продуктов, штрихкодов и достопримечательностей. Каждая система ищет совпадения в своей специализированной базе данных.

Что такое "интерактивный документ результатов"?

Это способ представления результатов. Система может показать исходное изображение и выделить на нем области (sub-portions) с помощью рамок или меток (visual identifiers). Также это может быть структурированная страница выдачи (SERP), где результаты представлены миниатюрами (thumbnails) распознанных областей.

Как система решает, что выделить рамкой или миниатюрой на изображении?

Если одна из параллельных поисковых систем находит результат с достаточно высокой оценкой релевантности (relevancy score) для определенной части изображения, система идентифицирует эту подобласть и создает для нее визуальный идентификатор (рамку или миниатюру).

Может ли система распознать несколько разных объектов на одном фото?

Да, это ключевая особенность патента. Если на фото есть человек, собака и текст, система попытается распознать все три элемента независимо, используя разные движки (распознавание лиц, объектов и OCR). В результате пользователь увидит отдельные интерактивные результаты для каждого распознанного элемента.

Какое значение это имеет для Image SEO и оптимизации под визуальный поиск?

Это подчеркивает важность четкости и качества изображений. Чтобы системы распознавания объектов или OCR могли корректно идентифицировать ваш контент, изображения должны быть высококачественными, а объекты — четко различимыми. Это увеличивает шансы на то, что ваш продукт или информация будут распознаны при визуальном поиске.

Использует ли Google OCR для текста на изображениях в визуальном поиске?

Да, патент явно указывает на использование OCR Search System как одной из параллельных систем. Это означает, что текст на изображениях (например, на упаковке продукта) анализируется и может использоваться как для поиска совпадений, так и для генерации автоматических текстовых запросов (Term Queries).

Что означает, что рамки могут быть отформатированы по типу сущности?

Патент (Claim 4) описывает возможность визуального кодирования. Например, система может использовать синие рамки для распознанных продуктов, зеленые для текста и красные для лиц. Это помогает пользователю быстро понять, какой тип информации был найден в каждой области.

Упоминается ли в патенте распознавание лиц и использование личных данных?

Да. Патент включает Facial Recognition Search System и упоминает использование Social Network Database. Claim 6 указывает на возможность системы идентифицировать людей на фото и предоставлять связанные с ними атрибуты (имя, контактные данные и т.д., согласно описанию патента), если это применимо.

Использует ли система данные о местоположении при визуальном поиске?

Да, в патенте упоминается возможность использования данных GPS или информации о местоположении, предоставляемой клиентским устройством. Эти данные могут помочь в распознавании места (place recognition) или локальных объектов, улучшая релевантность результатов.

Похожие патенты

Как Google разбирает визуальные запросы, отправляя их одновременно в несколько специализированных поисковых систем (OCR, распознавание лиц, объектов)
Google использует архитектуру для обработки визуальных запросов (изображений), которая одновременно отправляет изображение в несколько параллельных поисковых систем (распознавание текста, лиц, объектов, штрихкодов). Система агрегирует результаты, часто создавая интерактивный документ, где разные части изображения связаны с соответствующими результатами поиска, и использует обратную связь для обучения.
  • US9135277B2
  • 2015-09-15
  • Мультимедиа

  • SERP

Как Google разбирает изображения на части для визуального поиска товаров (e.g., Google Lens)
Система Google для визуального поиска товаров, которая анализирует изображения, извлекая глобальные и локальные признаки (цвет, форма, текстура). Патент описывает, как это позволяет пользователям искать похожие товары, выделяя конкретные части объекта (например, узор на сумке или форму каблука), используя технологию, лежащую в основе Google Lens.
  • US9008435B2
  • 2015-04-14
  • Мультимедиа

  • Индексация

  • Google Shopping

Как Google превращает объекты на изображениях в интерактивные элементы для выполнения действий (звонок, покупка, маршрут)
Google анализирует визуальные запросы (изображения) для распознавания сущностей (продукты, логотипы, текст, здания). Система находит связанную информацию в индексе (номера телефонов, адреса, URL) и генерирует «действенные результаты» — интерактивные кнопки, позволяющие пользователю немедленно совершить действие (позвонить, купить, проложить маршрут), запуская соответствующее приложение.
  • US8977639B2
  • 2015-03-10
  • Семантика и интент

  • SERP

  • Индексация

Как Google использует единый Image Embedding для параллельного поиска по разным вертикалям (Web, Shopping, Local) при визуальном запросе
Google патентует механизм для улучшения визуального поиска (например, Google Lens). Система генерирует единое векторное представление (Image Embedding) для изображения-запроса и использует его для одновременного поиска визуально похожих результатов в нескольких разных базах данных (например, в общем веб-индексе и специализированном индексе товаров или локаций). Контекст пользователя (местоположение, история) помогает системе выбрать, какие специализированные базы активировать для поиска.
  • US20240311421A1
  • 2024-09-19
  • Мультимедиа

  • Индексация

  • Семантика и интент

Как Google заложил основы Визуального Поиска (Google Lens), используя контекст (время, местоположение) и мультимодальное распознавание
Этот патент описывает фундаментальную архитектуру мобильного визуального поиска Google (например, Google Lens). Он детализирует, как изображение с телефона анализируется несколькими специализированными движками (объекты, текст, лица). Критически важно, что система использует контекст, такой как время суток и местоположение, для повышения точности распознавания и учитывает различные ракурсы и условия освещения перед возвратом релевантной информации.
  • US7751805B2
  • 2010-07-06
  • Мультимедиа

Популярные патенты

Как Google анализирует сессии пользователей и кластеризует концепции для генерации блока "Связанные запросы" (Related Searches)
Google анализирует последовательности запросов пользователей в рамках одной сессии для выявления шаблонов уточнений. Система кластеризует эти уточнения по смыслу, анализируя контент ранжирующихся по ним документов или другие запросы, ведущие на эти документы. Это позволяет предлагать пользователям концептуально различные варианты для сужения или изменения темы поиска.
  • US8065316B1
  • 2011-11-22
  • Семантика и интент

  • SERP

  • Поведенческие сигналы

Как Google использует консенсус источников для выбора и валидации фактов в Knowledge Graph и прямых ответах
Система Google для выбора наилучшего ответа на фактические запросы. Она оценивает потенциальные ответы из разных источников и вычисляет «Оценку Поддержки» (Supported Score) на основе их согласованности. Факт отображается, только если он значительно превосходит противоречащие и несвязанные данные, обеспечивая высокую точность ответа.
  • US7953720B1
  • 2011-05-31
  • Knowledge Graph

  • EEAT и качество

  • Семантика и интент

Как Google рассчитывает репутационную значимость организаций и людей, используя данные из внешних источников для ранжирования
Google использует систему для оценки репутации и престижа сущностей (например, организаций или людей). Система не полагается только на предоставленные данные, а активно ищет «Дополнительные Аспекты» из внешних источников (например, профессиональные сети, СМИ). На основе этих данных рассчитываются две метрики: «Репутационная Значимость» (престиж относительно аналогов) и «Двустороннее Соответствие» (взаимная привлекательность), которые используются для ранжирования результатов поиска и рекомендаций.
  • US10878048B2
  • 2020-12-29
  • EEAT и качество

  • SERP

  • Knowledge Graph

Как Google определяет интент запроса, анализируя классификацию контента, который кликают пользователи
Google использует данные о поведении пользователей для классификации запросов. Система определяет, какой контент пользователи считают наиболее релевантным для запроса (на основе кликов и времени пребывания). Затем она анализирует классификацию этого контента (например, «продукт», «новости», «взрослый контент») и присваивает доминирующую классификацию самому запросу. Это позволяет уточнить интент и скорректировать ранжирование.
  • US8838587B1
  • 2014-09-16
  • Семантика и интент

  • Поведенческие сигналы

  • SERP

Как Google использует контекст и анализ офлайн-поведения (Read Ranking) для соединения физических документов с цифровыми копиями
Система идентифицирует цифровой контент по сканированному фрагменту из физического мира, используя не только текст, но и обширный контекст (время, местоположение, историю пользователя). Патент также вводит концепцию «Read Ranking» — отслеживание популярности физических документов на основе того, что люди сканируют, как потенциальный сигнал ранжирования.
  • US20110295842A1
  • 2011-12-01
  • Поведенческие сигналы

  • Персонализация

  • Семантика и интент

Как Google корректирует позиционную предвзятость (Position Bias) при обучении моделей ранжирования на кликах пользователей
Google использует механизм для устранения позиционной предвзятости (Position Bias) при обучении моделей ранжирования (Learning to Rank). Система анализирует, на какой позиции находился кликнутый результат, и присваивает этому клику вес важности. Клики по нижним позициям получают больший вес, чем клики по ТОП-1. Это позволяет модели учиться определять истинную релевантность, а не просто копировать существующий порядок выдачи.
  • US20210125108A1
  • 2021-04-29
  • Поведенческие сигналы

  • SERP

Как Google использует историю браузера, закладки и поведение пользователей для персонализации результатов поиска в e-commerce
Система отслеживает поведение пользователей (клики, время на сайте, покупки) и их сохраненные закладки (content pointers) в сетевой среде. На основе этих данных создается персональная модель релевантности и иерархия предпочтений. Эта модель используется для дополнения запросов, переранжирования результатов поиска и предоставления рекомендаций, обеспечивая персонализированный опыт в e-commerce.
  • US7089237B2
  • 2006-08-08
  • Поведенческие сигналы

  • Персонализация

  • SERP

Как Google использует анализ аномалий в показах и кликах для выявления фейковых локальных бизнес-листингов (Map Spam)
Google анализирует статистику взаимодействий (кликов) для групп связанных бизнес-листингов (Common Business). Система вычисляет статистически нормальный уровень активности и устанавливает порог (Anomaly Detection Threshold). Резкий всплеск активности выше этого порога (например, на два стандартных отклонения) сигнализирует о наличии фейковых или спамных листингов, созданных для манипуляции локальной выдачей.
  • US20150154610A1
  • 2015-06-04
  • Local SEO

  • Антиспам

  • Поведенческие сигналы

Как Google агрегирует, оценивает и ранжирует комментарии, отзывы и упоминания о веб-странице из разных источников
Google собирает комментарии, отзывы и посты в блогах, относящиеся к определенной веб-странице. Система использует сложные алгоритмы для определения основной темы упоминаний (особенно если в них несколько ссылок) и ранжирует эти комментарии на основе авторитетности автора, свежести, качества языка и обратной связи пользователей, чтобы представить наиболее полезные мнения.
  • US8745067B2
  • 2014-06-03
  • EEAT и качество

  • Свежесть контента

  • Семантика и интент

Как Google перенаправляет пользователей на «идеальные» запросы (KHRQ), анализируя поведение и удовлетворенность
Google анализирует логи запросов, чтобы определить «известные высокоранжированные запросы» (KHRQ) — те, которые пользователи вводят часто и которыми остаются довольны (редко переформулируют или долго изучают результаты). Система вычисляет вероятность того, что исходный запрос пользователя лучше заменить на KHRQ, основываясь на сходстве запросов и исторических цепочках переформулировок. Это позволяет направлять пользователей к наиболее эффективным формулировкам.
  • US7870147B2
  • 2011-01-11
  • Семантика и интент

  • Поведенческие сигналы

  • SERP

seohardcore