SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google разбирает визуальные запросы, отправляя их одновременно в несколько специализированных поисковых систем (OCR, распознавание лиц, объектов)

ARCHITECTURE FOR RESPONDING TO A VISUAL QUERY (Архитектура для ответа на визуальный запрос)
  • US9135277B2
  • Google LLC
  • 2010-08-04
  • 2015-09-15
  • Мультимедиа
  • SERP
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google использует архитектуру для обработки визуальных запросов (изображений), которая одновременно отправляет изображение в несколько параллельных поисковых систем (распознавание текста, лиц, объектов, штрихкодов). Система агрегирует результаты, часто создавая интерактивный документ, где разные части изображения связаны с соответствующими результатами поиска, и использует обратную связь для обучения.

Описание

Какую проблему решает

Патент решает проблему обработки сложных визуальных запросов (изображений, используемых в качестве запроса), которые могут содержать разнородные элементы (например, текст, лицо, продукт и штрих-код на одной фотографии). Традиционный текстовый поиск не способен интерпретировать такой контент. Изобретение предлагает инфраструктуру для эффективной идентификации различных компонентов внутри одного изображения и предоставления релевантной информации по каждому из них.

Что запатентовано

Запатентована архитектура и метод для обработки визуальных запросов. Ключевым элементом является система, которая принимает изображение и одновременно (параллельно) отправляет его в несколько специализированных поисковых систем (Parallel Search Systems), таких как распознавание текста (OCR), лиц, продуктов, штрихкодов и объектов. Front End Server агрегирует результаты и использует обратную связь от пользователей (user annotations) для улучшения будущих поисков.

Как это работает

Система работает следующим образом:

  • Получение запроса: Front End Visual Query Processing Server принимает визуальный запрос (например, через Google Lens).
  • Параллельная обработка: Запрос одновременно отправляется в специализированные системы (OCR Search System, Face Recognition Search System, Image to Terms Search System и т.д.).
  • Агрегация и Ранжирование: Фронтальный сервер собирает результаты от всех систем и ранжирует их на основе оценок релевантности.
  • Сегментация и Интерактивность: Если в изображении распознано несколько сущностей, может быть создан Interactive Results Document. Изображение сегментируется (partitioning), и для распознанных объектов создаются визуальные идентификаторы (например, рамки Bounding Box), связанные ссылками с результатами поиска.
  • Обратная связь и Обучение: Система собирает аннотации пользователя (явную или неявную обратную связь о релевантности) и использует их для влияния на результаты будущих поисков (Claim 1).

Актуальность для SEO

Высокая. Патент описывает фундаментальную архитектуру, лежащую в основе современных систем визуального поиска, таких как Google Lens. Архитектурный принцип параллельной обработки изображений различными специализированными движками и использование обратной связи для обучения остаются стандартом для мультимодального анализа контента.

Важность для SEO

Патент имеет высокое стратегическое значение для SEO (8/10), определяя основы Визуальной Поисковой Оптимизации (VSO). Он демонстрирует, что Google не воспринимает изображение как единое целое, а разбирает его на компоненты (текст, объекты, лица) и обрабатывает их независимо специализированными движками. Понимание этой архитектуры критически важно для создания и оптимизации изображений, которые будут корректно интерпретированы и высоко ранжированы в результатах визуального поиска.

Детальный разбор

Термины и определения

Visual Query (Визуальный запрос)
Изображение (фотография, скан, скриншот, кадр видео), отправленное в поисковую систему в качестве запроса.
Parallel Search Systems (Параллельные поисковые системы)
Множество специализированных систем, которые одновременно обрабатывают визуальный запрос. Каждая система реализует отдельный процесс поиска (например, OCR, распознавание лиц, объектов, штрихкодов).
Front End Visual Query Processing Server (Фронтенд-сервер обработки визуальных запросов)
Центральный компонент, который принимает запрос от клиента, рассылает его параллельным системам, а затем агрегирует, ранжирует и форматирует результаты.
Interactive Results Document (Интерактивный документ результатов)
Формат выдачи, который отображает исходный визуальный запрос с наложенными визуальными идентификаторами распознанных подобластей. Эти идентификаторы являются ссылками на результаты поиска.
Visual Identifier (Визуальный идентификатор)
Элемент интерфейса в Interactive Results Document, который выделяет распознанную подобласть запроса. Примеры: Bounding Box (рамка) или Label (метка).
OCR (Optical Character Recognition)
Оптическое распознавание символов. Процесс извлечения текста из изображения.
Image-Match Process (Процесс сопоставления изображений)
Общий термин для всех процессов визуального поиска, кроме OCR (например, распознавание лиц, продуктов, объектов, цветов).
Query & Annotation Database (База данных запросов и аннотаций)
Хранилище, куда записываются визуальные запросы и обратная связь пользователя (выбор результатов, аннотации, исправления). Используется для улучшения системы.
User Annotations (Пользовательские аннотации)
Обратная связь от пользователя относительно релевантности результатов (выбор корректного результата, исправление ошибки OCR, комментарии). Критически важны для машинного обучения системы (Claim 1).
Term Query Server System (Серверная система текстовых запросов)
Стандартная поисковая система. Используется для дополнения визуальных результатов (например, поиск по распознанным через OCR сущностям).

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает основной метод обработки визуального запроса, содержащего несколько объектов разного типа, и использование обратной связи для улучшения поиска.

  1. Система получает визуальный запрос, содержащий как минимум два объекта разных типов (типы выбраны из: текст/OCR символы, лицо человека, нечеловеческий объект, штрихкод).
  2. Запрос разделяется (partitioning) на регионы, где каждый регион содержит один из объектов.
  3. Запрос обрабатывается путем одновременного (concurrently) получения результатов поиска для первого объекта и для второго объекта.
  4. Результаты форматируются для одновременного отображения (concurrent display) обоих наборов результатов пользователю.
  5. Система получает пользовательские аннотации (user annotations) к конкретному результату. Аннотация указывает на действие пользователя, определяющее релевантность (или ее отсутствие) результата запросу.
  6. Система получает второй визуальный запрос.
  7. В ответ на второй запрос система генерирует результаты, основываясь как минимум на одной аннотации, полученной ранее.

Ядром изобретения является комбинация трех элементов: 1) сегментация сложного изображения на компоненты разных типов; 2) их одновременное распознавание параллельными системами; 3) использование обратной связи пользователя (аннотаций) для влияния на результаты будущих поисков (машинное обучение).

Зависимые пункты (например, 3, 6): Уточняют природу аннотаций. Это может быть пользовательское описание, отзыв (user review), исправление результата (user correction) или явное выделение пользователем области изображения с идентификацией объекта.

Где и как применяется

Эта архитектура является фреймворком для визуального поиска (например, Google Lens) и затрагивает несколько слоев поисковой архитектуры.

INDEXING – Индексирование и извлечение признаков
Архитектура предполагает наличие предварительно созданных специализированных баз данных для каждого типа поиска (Facial Image Database, Image Search Database). Процессы индексирования наполняют эти базы данных визуальными признаками.

QUNDERSTANDING – Понимание Запросов
Весь процесс направлен на интерпретацию визуального ввода. Система трансформирует пиксели в структурированные данные (текст, лицо, продукт). Это включает разделение (partitioning) изображения на регионы интереса.

RANKING – Ранжирование (Специализированное)
Каждая из параллельных систем (Parallel Search Systems) — например, OCR Search System или Product Recognition System — выполняет собственный поиск и ранжирование в своей специализированной базе данных.

METASEARCH – Метапоиск и Смешивание
Front End Visual Query Processing Server действует как оркестратор (Metasearch). Он агрегирует результаты из разных специализированных "вертикалей" (OCR, Лица, Объекты) и смешивает их в единый ответ. Это может включать создание Interactive Results Document.

RERANKING – Переранжирование
После сбора результатов Front End Server выполняет финальное ранжирование и фильтрацию. На этом этапе также применяются данные, полученные из предыдущих пользовательских аннотаций (как указано в Claim 1), для корректировки результатов.

Входные данные:

  • Визуальный запрос (изображение).
  • Опционально: данные геолокации (GPS) для помощи в распознавании мест.
  • Опционально: данные предварительной обработки с клиента (например, "здесь вероятно штрих-код").
  • Базы данных аннотаций от предыдущих запросов.

Выходные данные:

  • Список ранжированных результатов (текст из OCR, идентифицированные объекты/продукты).
  • Опционально: Interactive Results Document с визуальными идентификаторами (Bounding Boxes или Labels) и ссылками.

На что влияет

  • Конкретные типы контента: Критически влияет на изображения продуктов (e-commerce), локальные объекты (вывески, достопримечательности), документы и изображения с текстом.
  • Специфические запросы: Влияет на все запросы, поданные через интерфейсы визуального поиска.
  • Конкретные ниши: Наибольшее влияние в E-commerce, Travel и Local Search, где визуальная идентификация является ключевой.

Когда применяется

Алгоритм применяется каждый раз, когда пользователь отправляет визуальный запрос в систему, поддерживающую данную архитектуру.

  • Триггеры активации: Получение изображения в качестве поискового запроса. Согласно Claim 1, ключевые механизмы агрегации и интерактивности активируются, когда в запросе распознано два или более объекта разных типов (например, текст и объект).

Пошаговый алгоритм

Процесс А: Обработка визуального запроса

  1. Получение запроса и Предобработка (Опционально): Клиент отправляет изображение на Front End Server. Клиент может предварительно выполнить локальный анализ (например, обнаружение лиц или штрихкодов) и отправить эти данные вместе с запросом.
  2. Распределение запроса: Сервер отправляет визуальный запрос одновременно множеству Parallel Search Systems (OCR, Распознавание лиц, Объектов, Продуктов и т.д.).
  3. Специализированный поиск: Каждая система выполняет свой процесс. Например, OCR извлекает текст, система распознавания продуктов ищет совпадения в каталоге.
  4. Сбор результатов: Сервер получает результаты от параллельных систем. Если система не находит релевантных результатов, она возвращает нулевое значение (null).
  5. Ранжирование и Фильтрация: Собранные результаты ранжируются на основе оценок уверенности и фильтруются.
  6. Создание Интерактивного Документа (Опционально): Система идентифицирует подобласти изображения, создает визуальные идентификаторы (Bounding Boxes или Labels) и встраивает ссылки на соответствующие результаты.
  7. Отправка ответа: Сервер отправляет результаты и/или интерактивный документ клиенту.

Процесс Б: Обработка обратной связи (Claim 1)

  1. Получение обратной связи: Пользователь взаимодействует с результатами, выбирая конкретные результаты или предоставляя аннотации (исправления, отзывы, идентификацию объектов).
  2. Сохранение и обработка: Сервер сохраняет эту информацию в Query & Annotation Database.
  3. Улучшение поиска: Информация из базы данных аннотаций используется для улучшения будущих поисковых операций (например, путем влияния на переранжирование или обновления моделей распознавания).

Какие данные и как использует

Данные на входе

  • Мультимедиа факторы: Основной ввод — это сам визуальный запрос (пиксельные данные изображения или видеокадра). Анализируются паттерны, формы, цвета.
  • Географические факторы: Упоминается использование информации о геолокации (например, GPS) для помощи в распознавании мест (place recognition).
  • Пользовательские/Технические факторы: Данные предварительной обработки с клиентского устройства (например, информация о том, что клиент распознал область как лицо).
  • Поведенческие факторы (Обратная связь): Пользовательские аннотации (user annotations) и выбор результатов (selection). Включает исправления результатов, отзывы, выделение областей пользователем. Это критически важный вход для обучения системы (Claim 1).

Какие метрики используются и как они считаются

Патент фокусируется на архитектуре, а не на конкретных метриках ранжирования, но упоминает следующие концепции:

  • Search Score / Relevance Score (Оценка поиска/релевантности): Каждая параллельная система возвращает результаты вместе с оценкой уверенности или релевантности. Front End Server использует эти оценки для финального ранжирования.
  • Pre-defined minimum score (Предопределенная минимальная оценка): Используется для фильтрации. Результаты ниже порога могут быть исключены.
  • Confidence value (Оценка уверенности): Может использоваться на этапе предварительной обработки на клиенте для указания вероятности распознанного типа контента.
  • Category Weight (Вес категории): При форматировании результатов категории (например, "Продукты", "Текст") могут упорядочиваться по весу, который зависит от оценок релевантности лучших результатов в этой категории.

Выводы

  1. Принцип "Разделяй и властвуй" в визуальном поиске: Google не использует единую модель для интерпретации изображений. Вместо этого применяется архитектура параллельной обработки, где специализированные движки (OCR, объекты, лица, продукты) работают одновременно для анализа разных аспектов изображения.
  2. Изображение как набор сущностей: Система стремится разобрать (partitioning) изображение на составляющие его сущности (текст, продукт, логотип) и найти информацию по каждой из них независимо.
  3. Интерактивность для уточнения интента: Interactive Results Document с кликабельными областями (Bounding Boxes) является ключевым механизмом, позволяющим пользователю уточнить свой интент, если изображение содержит несколько объектов интереса.
  4. Критическая роль обратной связи (Аннотации): Патент (в Claim 1) явно подчеркивает важность сбора пользовательских аннотаций и их использования для машинного обучения и улучшения качества последующих поисков.
  5. Интеграция визуального и текстового поиска: Система тесно связывает визуальное распознавание с текстовым поиском (Term Query Server System), например, распознавая текст через OCR и автоматически связывая его с результатами текстового поиска (Compound Search Result).

Практика

Best practices (это мы делаем)

Рекомендации направлены на оптимизацию под визуальный поиск (VSO), основанную на этой архитектуре параллельной обработки.

  • Обеспечение визуальной четкости и сегментации: Компонуйте изображения так, чтобы ключевые объекты (продукты, логотипы) были четкими, хорошо освещенными и визуально отделенными от фона. Это облегчает системе задачу сегментации (partitioning) и распознавания специализированными движками (Product Recognition).
  • Оптимизация текста на изображениях (OCR): Если изображение содержит текст (например, инфографика, упаковка), убедитесь, что он легко читается машиной. Используйте стандартные шрифты и достаточный контраст, чтобы OCR Search System корректно его обработал и извлек сущности.
  • Использование стандартных визуальных идентификаторов: Убедитесь, что штрихкоды на продуктах соответствуют стандартам и легко считываются, так как Barcode Recognition является одной из параллельных систем. Логотипы должны быть четкими для распознавания.
  • Оптимизация для локального поиска: При публикации фотографий бизнеса убедитесь, что вывеска и фасад четко видны. Система может использовать геолокацию пользователя и OCR вывески для точной идентификации места (place recognition).
  • Создание визуально уникальных активов: Для брендов и продуктов важно иметь визуально отличимые элементы (упаковка, дизайн), которые могут быть однозначно идентифицированы системами распознавания.

Worst practices (это делать не надо)

  • Использование визуально зашумленных или перегруженных изображений: Размещение основного объекта в сложном фоне или сильное перекрытие объектов затрудняет их выделение (сегментацию) и распознавание специализированными движками.
  • Игнорирование читаемости текста на картинках: Использование слишком стилизованных, мелких или низкоконтрастных шрифтов приведет к ошибкам OCR, из-за чего система не сможет извлечь текстовую информацию из изображения.
  • Блокировка важных визуальных элементов: Размещение крупных водяных знаков или других элементов поверх ключевых объектов (например, поверх логотипа или штрихкода) может помешать корректному распознаванию.
  • Ставка только на ALT-текст: Полагаться только на текстовые атрибуты неэффективно. Архитектура Google направлена на анализ пикселей, поэтому само визуальное содержимое имеет первостепенное значение для VSO.

Стратегическое значение

Этот патент подтверждает критическую важность Визуальной Поисковой Оптимизации (VSO) и является основой для Google Lens. По мере роста популярности поиска через камеру, оптимизация визуальных активов становится неотъемлемой частью SEO. Стратегия должна учитывать, как машины "видят" и категоризируют объекты, и фокусироваться на создании контента, который легко интерпретируется различными параллельными поисковыми системами Google.

Практические примеры

Сценарий: Оптимизация карточки товара для визуального поиска (E-commerce)

  1. Действие: SEO-специалист обеспечивает наличие нескольких типов фотографий продукта (например, кроссовка): (1) Четкое фото на белом фоне. (2) Фото упаковки с видимым названием модели и штрихкодом.
  2. Как работает система (согласно патенту): Пользователь делает снимок этого кроссовка в магазине через Google Lens. Запрос попадает в описанную архитектуру.
    • Product Recognition System анализирует форму и цвета, идентифицируя модель.
    • OCR Search System считывает название модели и бренд с упаковки.
    • Barcode Recognition System считывает штрихкод.
  3. Ожидаемый результат: Front End Server агрегирует эти сильные сигналы от разных систем. Пользователю возвращается Interactive Results Document с рамками вокруг кроссовка и штрихкода. В результатах с высокой вероятностью будет ссылка на оптимизированную карточку товара, так как система точно идентифицировала продукт по нескольким параметрам.

Вопросы и ответы

Является ли эта архитектура тем, что мы сейчас знаем как Google Lens?

Да, этот патент описывает фундаментальную архитектуру, которая лежит в основе работы Google Lens и подобных сервисов визуального поиска. Он объясняет, как Google принимает изображение и использует несколько специализированных движков одновременно (параллельно) для его анализа, а затем представляет результаты в интерактивном формате.

Что означает "параллельная обработка" для SEO оптимизации изображений?

Это означает, что одно изображение оценивается по разным критериям одновременно: как объект, как текст, как логотип и т.д. Для SEO важно оптимизировать изображение комплексно. Нужно думать о машиночитаемости для каждого из этих специализированных движков: обеспечивать четкость объекта для Object Recognition и читаемость текста для OCR.

Как система решает, какой результат показать первым, если распознаны и текст, и объект?

Патент указывает, что Front End Server выполняет ранжирование, используя оценки релевантности (relevance scores) от каждого параллельного движка. Если движок распознавания продуктов вернул результат с очень высокой уверенностью, а OCR с низкой, продукт будет показан выше. Также система часто использует Interactive Results Document, чтобы показать все результаты одновременно через кликабельные области.

Что такое Interactive Results Document и как он влияет на пользователя?

Это интерфейс, где на исходное изображение накладываются кликабельные области (рамки или метки) вокруг распознанных объектов. Это критически важно для сложных изображений. Это позволяет пользователю уточнить интент, выбрав конкретный объект, который его интересует (например, конкретный предмет мебели на фото комнаты), вместо прокрутки длинного списка разнородных результатов.

Что патент говорит об оптимизации текста на изображениях (OCR)?

OCR является обязательным компонентом архитектуры. Это подчеркивает важность читаемости текста на любых визуальных активах. Кроме того, упоминается Named Entity Recognition как пост-процесс OCR: система ищет в распознанном тексте важные сущности (бренды, имена) и может использовать их для дополнительного текстового поиска, обогащая выдачу.

Какую роль играет обратная связь от пользователей (Аннотации) в этой системе?

Огромную. Claim 1 патента явно фокусируется на этом. Система собирает данные о том, какие результаты выбирают пользователи, и как они их аннотируют (например, исправляют ошибки распознавания или добавляют описания). Эта обратная связь (user annotations) используется для машинного обучения и повышения точности будущих результатов поиска.

Упоминается ли использование геолокации?

Да, патент упоминает, что геолокационная информация (например, GPS данные с устройства пользователя) может использоваться для помощи в распознавании мест (place recognition). Это критически важно для оптимизации локального бизнеса под визуальный поиск — система может связать внешний вид вашего заведения с его местоположением.

Что такое предварительная обработка на стороне клиента и зачем она нужна?

Это когда само устройство пользователя (например, телефон) анализирует изображение до отправки на сервер. Оно может распознать базовые типы контента, например, определить наличие штрих-кода или лица. Это может ускорить обработку на сервере или позволить серверу сфокусировать ранжирование на результатах соответствующего типа.

Как этот патент влияет на стратегию E-commerce SEO?

Он делает Визуальную Поисковую Оптимизацию (VSO) обязательной частью стратегии. Необходимо обеспечить, чтобы изображения продуктов были максимально чистыми и четкими для распознавания движками Product Recognition, OCR и Barcode Recognition. Четкая идентификация продукта через визуальный поиск напрямую ведет к возможности его покупки.

Что такое система "Image-to-Terms"?

Это система, которая сопоставляет визуальные элементы с текстовыми терминами. Она может распознавать конкретные объекты или категории объектов. Она помогает системе понять семантическое значение того, что изображено на картинке, связывая визуальные паттерны со словами.

Похожие патенты

Как Google распознает и связывает объекты на изображении с результатами поиска (Архитектура Google Lens)
Google использует систему параллельных поисковых движков (OCR, распознавание лиц, объектов, продуктов) для анализа визуального запроса (изображения). Система создает интерактивный документ, накладывая на исходное изображение визуальные идентификаторы (например, рамки или метки) для распознанных объектов. Эти идентификаторы служат ссылками на конкретные результаты поиска для каждого объекта.
  • US9087059B2
  • 2015-07-21
  • Мультимедиа

  • Ссылки

Как Google разбирает изображения на части для визуального поиска товаров (e.g., Google Lens)
Система Google для визуального поиска товаров, которая анализирует изображения, извлекая глобальные и локальные признаки (цвет, форма, текстура). Патент описывает, как это позволяет пользователям искать похожие товары, выделяя конкретные части объекта (например, узор на сумке или форму каблука), используя технологию, лежащую в основе Google Lens.
  • US9008435B2
  • 2015-04-14
  • Мультимедиа

  • Индексация

  • Google Shopping

Как Google заложил основы Визуального Поиска (Google Lens), используя контекст (время, местоположение) и мультимодальное распознавание
Этот патент описывает фундаментальную архитектуру мобильного визуального поиска Google (например, Google Lens). Он детализирует, как изображение с телефона анализируется несколькими специализированными движками (объекты, текст, лица). Критически важно, что система использует контекст, такой как время суток и местоположение, для повышения точности распознавания и учитывает различные ракурсы и условия освещения перед возвратом релевантной информации.
  • US7751805B2
  • 2010-07-06
  • Мультимедиа

Как Google агрегирует и ранжирует пользовательские метки для идентификации объектов в Визуальном поиске (Google Lens)
Google использует этот механизм для повышения точности идентификации объектов при поиске по изображению. Система находит множество визуально похожих изображений, загруженных пользователями (UGC), и анализирует их текстовые метки. Метки группируются по смыслу, а затем эти группы ранжируются на основе совокупной визуальной релевантности. Это позволяет определить наиболее вероятное название объекта, опираясь на коллективное мнение.
  • US9424279B2
  • 2016-08-23
  • Мультимедиа

  • Семантика и интент

  • SERP

Как Google использует единый Image Embedding для параллельного поиска по разным вертикалям (Web, Shopping, Local) при визуальном запросе
Google патентует механизм для улучшения визуального поиска (например, Google Lens). Система генерирует единое векторное представление (Image Embedding) для изображения-запроса и использует его для одновременного поиска визуально похожих результатов в нескольких разных базах данных (например, в общем веб-индексе и специализированном индексе товаров или локаций). Контекст пользователя (местоположение, история) помогает системе выбрать, какие специализированные базы активировать для поиска.
  • US20240311421A1
  • 2024-09-19
  • Мультимедиа

  • Индексация

  • Семантика и интент

Популярные патенты

Как Google предсказывает, какие сайты будут интересны пользователю на основе его контекста (местоположение, время, интересы) без поискового запроса
Google использует агрегированные данные о поведении пользователей для прогнозирования контента. Система анализирует контекст пользователя (местоположение, время, интересы, историю) и определяет, какие сайты посещают похожие пользователи в аналогичном контексте значительно чаще, чем пользователи в целом. Этот механизм позволяет предлагать релевантный контент без явного запроса (например, в Google Discover).
  • US9195703B1
  • 2015-11-24
  • Персонализация

  • Поведенческие сигналы

  • Семантика и интент

Как Google использует "ложные пропуски" (Fake Skips) для точной оценки качества своих правил синонимов
Google анализирует поведение пользователей для оценки качества синонимов, используемых при переписывании запросов. Патент вводит метрику "Fake Skip" (Ложный пропуск). Она фиксируется, если пользователь пропустил результат с синонимом, но кликнул на результат ниже, который также содержит этот синоним и исходный термин. Это позволяет точнее калибровать систему синонимов и не пессимизировать хорошие правила из-за неоднозначного поведения пользователей.
  • US8909627B1
  • 2014-12-09
  • Поведенческие сигналы

  • Семантика и интент

  • SERP

Как Google объединяет разные стратегии и поведенческие данные для генерации и выбора лучших альтернативных запросов
Google использует архитектуру, которая одновременно применяет множество стратегий (расширение, уточнение, синтаксис, анализ сессий) для генерации альтернативных запросов. Система оценивает качество этих вариантов с помощью показателей уверенности, основанных на поведении пользователей (например, длительности кликов) и критериях разнообразия. Лучшие альтернативы предлагаются пользователю, часто с превью результатов, чтобы помочь уточнить поиск.
  • US7565345B2
  • 2009-07-21
  • Поведенческие сигналы

  • SERP

Как Google использует клики пользователей в Поиске по Картинкам для определения реального содержания изображений
Google использует данные о поведении пользователей для автоматической идентификации содержания изображений. Если пользователи вводят определенный запрос (Идею) и массово кликают на конкретное изображение в результатах поиска, система ассоциирует это изображение с Концептом, производным от запроса. Это позволяет Google понимать, что изображено на картинке, не полагаясь исключительно на метаданные или сложный визуальный анализ, и улучшает релевантность ранжирования в Image Search.
  • US8065611B1
  • 2011-11-22
  • Поведенческие сигналы

  • Семантика и интент

  • Мультимедиа

Как Google использует тематические списки предпочтительных и нежелательных сайтов (Editorial Opinion) для корректировки ранжирования
Google может заранее определять "Темы запросов" (Query Themes) и назначать для них списки "Предпочтительных" (Favored) и "Нежелательных" (Non-Favored) источников. Если запрос пользователя соответствует теме, система корректирует ранжирование: повышает предпочтительные источники и понижает нежелательные, используя "Параметр редакторского мнения" (Editorial Opinion Parameter).
  • US7096214B1
  • 2006-08-22
  • EEAT и качество

  • Антиспам

  • SERP

Как Google использует свой индекс для автоматического обновления устаревших ссылок в закладках, истории поиска и на веб-страницах
Система Google поддерживает актуальность различных коллекций URL (закладки пользователей, история поиска, электронные письма), используя основной поисковый индекс как эталон канонических адресов. Если сохраненный URL устарел, система автоматически заменяет его на актуальную версию. Также описан механизм уведомления владельцев сайтов о неработающих исходящих ссылках.
  • US20130144836A1
  • 2013-06-06
  • Ссылки

  • Индексация

  • Техническое SEO

Как Google использует данные о выделении текста пользователями (явно или неявно) для генерации сниппетов и анализа контента
Google может собирать данные о том, какие фрагменты текста пользователи выделяют на веб-страницах, используя специальные инструменты или просто выделяя текст мышью. Эти данные агрегируются для определения наиболее важных частей документа. На основе этой "популярности" Google может динамически генерировать поисковые сниппеты, включающие наиболее часто выделяемые фрагменты.
  • US8595619B1
  • 2013-11-26
  • Поведенческие сигналы

  • SERP

Как Google использует контекст и анализ офлайн-поведения (Read Ranking) для соединения физических документов с цифровыми копиями
Система идентифицирует цифровой контент по сканированному фрагменту из физического мира, используя не только текст, но и обширный контекст (время, местоположение, историю пользователя). Патент также вводит концепцию «Read Ranking» — отслеживание популярности физических документов на основе того, что люди сканируют, как потенциальный сигнал ранжирования.
  • US20110295842A1
  • 2011-12-01
  • Поведенческие сигналы

  • Персонализация

  • Семантика и интент

Как Google использует клики и пропуски пользователей для оценки и корректировки правил близости терминов (Proximity Rules)
Google анализирует поведение пользователей для оценки эффективности правил близости (Proximity Rules), которые влияют на ранжирование в зависимости от расстояния между ключевыми словами на странице. Система отслеживает, кликают ли пользователи на результаты, где термины расположены далеко друг от друга, или пропускают их. На основе этих данных (Click Count, Skip Count) вычисляется оценка качества правила, что позволяет Google динамически адаптировать важность фактора близости.
  • US9146966B1
  • 2015-09-29
  • Поведенческие сигналы

  • SERP

Как Google динамически регулирует влияние фактора близости в локальном поиске в зависимости от тематики запроса и региона
Google использует систему для определения того, насколько важна близость (расстояние) для конкретного поискового запроса и региона. Анализируя исторические данные о кликах и запросах маршрутов, система вычисляет «Фактор важности расстояния». Для запросов типа «Кофе» близость критична, и удаленные результаты пессимизируются. Для запросов типа «Аэропорт» близость менее важна, и качественные результаты могут ранжироваться высоко. Система также учитывает плотность региона (город или село), адаптируя ожидания пользователей по расстоянию.
  • US8463772B1
  • 2013-06-11
  • Local SEO

  • Поведенческие сигналы

seohardcore