SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google заложил основы Визуального Поиска (Google Lens), используя контекст (время, местоположение) и мультимодальное распознавание

MOBILE IMAGE-BASED INFORMATION RETRIEVAL SYSTEM (Мобильная система поиска информации на основе изображений)
  • US7751805B2
  • Google LLC
  • 2006-05-12
  • 2010-07-06
  • Мультимедиа
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Этот патент описывает фундаментальную архитектуру мобильного визуального поиска Google (например, Google Lens). Он детализирует, как изображение с телефона анализируется несколькими специализированными движками (объекты, текст, лица). Критически важно, что система использует контекст, такой как время суток и местоположение, для повышения точности распознавания и учитывает различные ракурсы и условия освещения перед возвратом релевантной информации.

Описание

Какую проблему решает

Патент решает задачу создания эффективной системы поиска информации на основе визуального ввода с камеры мобильного телефона в неконтролируемых условиях реального мира. Цель — обеспечить точное и быстрое распознавание объектов, несмотря на вариации в освещении, ракурсах и расстоянии, чтобы связать физический мир с цифровой информацией («hyperlinks the physical world»).

Что запатентовано

Запатентована архитектура системы визуального мобильного поиска (Visual Mobile Search - VMS). Она основана на клиент-серверной модели, где изображение отправляется на Visual Recognition Server. Сервер использует комбинацию специализированных движков распознавания (OCR, объекты, лица) и активно применяет контекстные данные (время суток, местоположение) для фильтрации результатов. Также запатентованы методы учета вариативности освещения (parameterized feature vectors) и ракурсов (View Fusion).

Как это работает

Система работает следующим образом:

  • Захват и Передача: Пользователь делает снимок. Изображение и контекст (время, местоположение) отправляются на сервер.
  • Контекстная фильтрация: Система сужает пространство поиска, используя местоположение пользователя и время суток (для учета освещения).
  • Мультимодальный анализ: Несколько движков (OCR, Faces, Objects) параллельно анализируют изображение, извлекая feature vectors.
  • Сопоставление: Векторы сравниваются с базой данных, учитывая разные ракурсы (View Fusion).
  • Интеграция: Integrator Module оценивает результаты (confidence values) от разных движков и выбирает лучший (Object ID).
  • Ответ: Object ID передается на Media Server, который возвращает связанный контент (например, URL) пользователю.

Актуальность для SEO

Критически высокая. Этот патент является фундаментальным для Google Lens и современных систем визуального поиска. Хотя конкретные алгоритмы компьютерного зрения, упомянутые в патенте (SIFT, Gabor wavelets), устарели и заменены глубоким обучением, общая архитектура, мультимодальный подход и использование контекста (время, местоположение) остаются центральными принципами работы Google в 2025 году.

Важность для SEO

Патент имеет критическое значение (8.5/10) для стратегий Визуального Поиска (VSO), Image SEO и Local SEO. Он не описывает ранжирование веб-страниц, но определяет, как Google идентифицирует объекты реального мира и связывает их с цифровым контентом. Понимание механизмов распознавания, важности контекста и необходимости разнообразных визуальных данных критически важно для оптимизации видимости в Google Lens и аналогичных сервисах.

Детальный разбор

Термины и определения

Visual Mobile Search (VMS)
Название сервиса мобильного поиска на основе изображений, описанного в патенте.
Visual Recognition Server (Сервер визуального распознавания)
Сервер, который принимает изображение, выполняет распознавание с помощью нескольких движков и взаимодействует с Медиа-сервером. Также называется oR (object recognition) server.
Media Server (Медиа-сервер)
Сервер, который хранит контент (URL, текст, аудио), связанный с Object ID, и доставляет его клиенту после успешного распознавания.
Feature Vectors (Векторы признаков)
Числовое описание локальной структуры изображения вокруг интересующей точки. В патенте упоминаются SIFT, Gabor wavelets и learned features.
Parameterized Feature Vectors (Параметризованные векторы признаков)
Векторы признаков, которые хранятся с учетом параметров окружающей среды, таких как условия освещения (illumination condition) или ракурс.
View Fusion (Объединение видов)
Механизм для поддержки распознавания объектов с разных точек обзора. Он связывает (feature linking) наборы признаков из нескольких обучающих изображений одного и того же объекта.
Linked Feature Vectors (Связанные векторы признаков)
Наборы векторов признаков, объединенные механизмом View Fusion, представляющие объект с разных углов обзора.
Integrator Module (Модуль интеграции)
Компонент сервера, который получает оценки уверенности (confidence values) от нескольких движков распознавания (OCR, лица, объекты) и определяет финальный результат (Object ID).
Confidence Values (Оценки уверенности)
Метрики, возвращаемые каждым движком распознавания, указывающие на вероятность правильного совпадения.

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Определяет основную систему поиска информации на основе изображений с акцентом на освещение.

  1. База данных хранит изображения, связанные с представлениями объектов (object representations) и текстовыми идентификаторами.
  2. Представления объектов состоят из векторов признаков (feature vectors).
  3. Ключевое утверждение: Векторы признаков как минимум для одного изображения параметризованы в соответствии с соответствующими условиями освещения (parameterized according to a corresponding illumination condition).
  4. Система сервера распознавания принимает изображение, сопоставляет его, используя эти векторы признаков, и передает соответствующий текстовый идентификатор на медиа-сервер.

Ядром изобретения является использование векторов признаков, которые учитывают условия освещения для более надежного сопоставления.

Claim 2 (Зависимый от 1): Детализирует мультимодальную архитектуру сервера распознавания.

  1. Сервер включает специализированные движки: OCR, распознавание объектов и распознавание лиц.
  2. Каждый движок генерирует свою оценку уверенности (confidence value).
  3. Integrator module получает эти оценки и идентифицирует текстовый идентификатор.
  4. Как минимум один из движков использует параметризованные векторы признаков.

Это подтверждает мультимодальный подход, при котором изображение анализируется разными специализированными системами, а результаты объединяются.

Claim 14 (Зависимый от 1): Добавляет использование контекста местоположения.

Изображения в базе данных хранятся также в связи с местоположением (locations), где они были созданы. Система сервера распознавания сопоставляет полученное изображение, частично используя эти данные о местоположении.

Claim 15 (Независимый пункт): Описывает метод распознавания объекта с учетом угла обзора и времени суток (контекст освещения).

  1. Хранение для объектов набора связанных векторов признаков (linked feature vectors), представляющих изображения объекта с разных углов обзора (механизм View Fusion).
  2. Хранение, в связи с этими векторами, времени суток (times of day), когда изображения были созданы.
  3. Получение нового изображения объекта.
  4. Распознавание объекта путем: (i) нахождения наиболее близкого набора связанных векторов признаков И (ii) сравнения времени суток, связанного с этими векторами, со временем суток полученного изображения.

Этот метод явно использует как инвариантность к углу обзора (через связанные векторы), так и адаптацию к условиям освещения (через сравнение времени суток) для распознавания.

Где и как применяется

Этот патент описывает систему Визуального Поиска (например, Google Lens), которая функционирует параллельно традиционному веб-поиску.

INDEXING – Индексирование и извлечение признаков (Изображений)
На этом этапе формируется база данных для визуального поиска (Database of Learned Objects). Происходит извлечение ключевых признаков:

  • Извлечение Feature Vectors (Gabor wavelets, SIFT).
  • Параметризация векторов с учетом условий освещения (Claim 1).
  • Процесс View Fusion: связывание векторов признаков одного объекта с разных ракурсов (Claim 15).
  • Сохранение контекстных метаданных: время суток (Claim 15) и местоположение (Claim 14).

QUNDERSTANDING – Понимание Запросов (Визуальных)
Система получает входные данные от мобильного клиента: само изображение и контекст (текущее время, текущее местоположение пользователя). Может происходить предварительное извлечение признаков на стороне клиента для оптимизации.

RANKING – Ранжирование (Визуальный Поиск / Retrieval)
Это основной этап применения патента.

  • Контекстная Фильтрация: Система использует местоположение и время суток, чтобы сузить базу данных до релевантного подмножества (например, искать только среди объектов поблизости или снятых в схожих условиях освещения).
  • Мультимодальное Распознавание: Специализированные движки (OCR, Face Recognition, Object Recognition) параллельно обрабатывают изображение (Claim 2).
  • Сопоставление: Сравнение извлеченных признаков с индексированными Parameterized Feature Vectors и Linked Feature Vectors.
  • Оценка: Генерация Confidence Values для кандидатов.

METASEARCH – Метапоиск / RERANKING – Переранжирование
Integrator Module объединяет результаты от разных движков для выбора финального Object ID. Затем система извлекает связанный контент с Media Server.

На что влияет

  • Конкретные типы контента и ниши: Наибольшее влияние на контент, где визуальная идентификация является ключевой:
    • E-commerce: Товары, продукты, упаковка.
    • Local SEO: Достопримечательности, фасады зданий, рестораны, магазины.
    • Медиа: Печатная продукция, постеры, реклама (OCR, логотипы).
    • Образование: Произведения искусства, книги.
  • Специфические запросы: Запросы, инициированные через визуальный поиск (Google Lens), направленные на идентификацию объектов или извлечение информации из физического мира.

Когда применяется

  • Триггеры активации: Алгоритм активируется, когда пользователь явно инициирует визуальный запрос, отправляя изображение в систему VMS (например, используя Google Lens).
  • Условия работы: Работает в реальном времени при обработке запроса пользователя. Процессы индексирования, параметризации и View Fusion происходят офлайн.

Пошаговый алгоритм

Процесс А: Индексирование и View Fusion (Офлайн)

  1. Сбор изображений: Получение изображений объекта с разных ракурсов и при разном освещении.
  2. Извлечение и параметризация: Извлечение Feature Vectors и их параметризация по условиям освещения (Claim 1). Запись времени суток (Claim 15) и местоположения (Claim 14).
  3. Связывание признаков (View Fusion): Сопоставление признаков между разными изображениями одного объекта. Если найдено совпадение, наборы признаков связываются, формируя Linked Feature Vectors (Claim 15).
  4. Сохранение в базе данных: Сохранение связанных и параметризованных представлений объекта.

Процесс Б: Обработка визуального запроса (Онлайн)

  1. Получение данных: Система получает изображение-запрос и контекстные данные (текущее время, местоположение).
  2. Извлечение признаков: Из изображения извлекаются Feature Vectors (может происходить на клиенте или сервере).
  3. Контекстная фильтрация (Сокращение пространства поиска):
    1. Фильтрация по местоположению: Приоритет отдается объектам поблизости (Claim 14).
    2. Фильтрация по времени: Приоритет отдается изображениям в базе, снятым в схожее время суток для учета освещения (Claim 15).
  4. Параллельное распознавание: Обработка запроса несколькими движками (OCR, Face, Object) (Claim 2).
  5. Сопоставление признаков: Сравнение признаков запроса с индексированными данными, используя Linked Feature Vectors и Parameterized Feature Vectors.
  6. Расчет оценок уверенности: Каждый движок вычисляет Confidence Values.
  7. Интеграция и выбор: Integrator Module анализирует Confidence Values и выбирает финальный результат (Object ID).
  8. Получение и возврат контента: Object ID отправляется на Media Server, который возвращает связанный контент пользователю.

Какие данные и как использует

Данные на входе

Система активно использует контекстные данные наряду с визуальными:

  • Мультимедиа факторы (Визуальные): Пиксельные данные изображения-запроса. Основной источник для извлечения Feature Vectors.
  • Географические факторы (Контекст): Местоположение мобильного устройства (GPS, триангуляция). Используется для сужения пространства поиска до объектов поблизости (Claim 14).
  • Временные факторы (Контекст): Время суток, когда был сделан запрос. Используется для сравнения с временем создания индексированных изображений, чтобы лучше соответствовать условиям освещения (Claim 15).
  • Пользовательские факторы (Контекст): Патент упоминает возможность использования профиля пользователя или недавних транзакций в качестве дополнительного контекста для сужения поиска.

Какие метрики используются и как они считаются

  • Feature Vectors (Векторы признаков): Основная метрика для описания локальной структуры изображения. Рассчитываются с использованием SIFT, Gabor Wavelets или других методов.
  • Parameterized Feature Vectors: Векторы признаков, дополненные данными об условиях освещения (Claim 1).
  • Linked Feature Vectors / View Fusion: Сети взаимосвязанных векторов признаков, представляющие объект с разных ракурсов (Claim 15).
  • Similarity Score (Оценка схожести): Метрика, рассчитываемая при сравнении векторов признаков запроса и индексированных векторов.
  • Confidence Values (Значения уверенности): Итоговая оценка от каждого движка распознавания, указывающая на надежность совпадения.
  • Вспомогательные дескрипторы: Цветовые гистограммы (color histograms) и дескрипторы текстур (texture descriptors) могут использоваться для быстрой предварительной фильтрации.

Выводы

  1. Фундамент Визуального Поиска (Google Lens): Патент описывает архитектуру и ключевые технологии, которые лежат в основе современных систем визуального поиска Google. Это система идентификации объектов по изображению, а не алгоритм ранжирования веб-страниц.
  2. Контекст критически важен (Время и Место): Патент явно демонстрирует (Claim 14 и 15), что местоположение и время суток используются для улучшения распознавания. Местоположение сужает поиск до ближайших объектов, а время суток помогает сопоставлять изображения с похожими условиями освещения.
  3. Мультимодальный подход к распознаванию: Google использует набор специализированных движков (Объекты, Лица, Текст/OCR), результаты которых объединяются Integrator Module (Claim 2). Это позволяет эффективно обрабатывать разнообразные визуальные запросы.
  4. Продвинутая обработка визуальных вариаций: Система разработана для учета изменений во внешнем виде объектов. View Fusion (Linked Feature Vectors) обеспечивает инвариантность к углу обзора (Claim 15), а Parameterized Feature Vectors учитывают различные условия освещения (Claim 1).
  5. Связь физического мира с цифровым: Конечная цель системы — идентифицировать объект (получить Object ID) и вернуть связанный с ним цифровой контент (часто URL), эффективно создавая гиперссылки из физических объектов.

Практика

Best practices (это мы делаем)

Рекомендации направлены на улучшение видимости в системах визуального поиска, таких как Google Lens (Visual Search Optimization - VSO).

  • (E-commerce) Предоставление разнообразных ракурсов: Поскольку система использует View Fusion (Claim 15) для построения полной модели объекта, критически важно предоставлять изображения продукта с разных углов обзора (360 градусов). Это увеличивает вероятность успешного распознавания при запросе пользователя с нестандартного ракурса.
  • (Local SEO) Загрузка фотографий в разное время суток: Патент явно указывает на использование времени суток для сопоставления условий освещения (Claim 15). Для Local SEO необходимо загружать в Google Business Profile качественные фотографии фасада и интерьера, сделанные как днем, так и вечером. Это улучшит распознавание бизнеса независимо от того, когда пользователь делает запрос.
  • (Image SEO) Сохранение метаданных (EXIF): Патент подчеркивает важность местоположения и времени (Claim 14, 15). Необходимо следить, чтобы при оптимизации изображений не удалялись важные EXIF-данные, особенно GPS-координаты и временные метки, так как они помогают Google связать изображение с сущностью и контекстом.
  • Оптимизация качества и четкости изображений: Используйте высококачественные, четкие и хорошо освещенные изображения. Это облегчает извлечение надежных feature vectors, которые являются основой распознавания.

Worst practices (это делать не надо)

  • Использование только одного студийного фото: Это не дает системе достаточно данных для View Fusion и не учитывает вариативность освещения в реальном мире, что может привести к сбоям при распознавании.
  • Удаление всех метаданных: Стирание EXIF-данных лишает поисковую систему важных контекстных сигналов (время и местоположение), которые используются для фильтрации и повышения точности распознавания.
  • Полагаться только на ALT-теги для Image SEO: Системы визуального поиска, описанные в патенте, в первую очередь анализируют пиксельные данные (feature vectors), а не текстовые описания. ALT-теги важны, но не являются основным фактором для визуальной идентификации объекта в Google Lens.
  • Использование стоковых или низкокачественных изображений: Затрудняет извлечение признаков и уникальную идентификацию вашего продукта или бизнеса.

Стратегическое значение

Патент подтверждает долгосрочную стратегию Google по превращению камеры в основной инструмент поиска и глубокой интеграции цифрового и физического мира. Для SEO это означает, что оптимизация визуальных ассетов (VSO) является неотъемлемой частью стратегии, особенно для E-commerce и локального бизнеса. Понимание того, что контекст (время/место) и разнообразие визуальных данных напрямую влияют на распознавание, позволяет адаптироваться к современным поисковым паттернам.

Практические примеры

Сценарий 1: Оптимизация карточки товара E-commerce для Визуального Поиска

  1. Задача: Улучшить распознавание товара через Google Lens.
  2. Действия на основе патента: Вместо 1-2 фото, загрузить 5-8 фотографий с разных ракурсов (для поддержки View Fusion, Claim 15). Также добавить фото товара в реальной среде при разном освещении (для учета параметризации по illumination condition, Claim 1).
  3. Ожидаемый результат: Google строит более полную визуальную модель товара, что повышает вероятность его корректного распознавания при запросах пользователей с разных углов и при разном свете.

Сценарий 2: Улучшение распознавания ресторана в Local SEO

  1. Задача: Обеспечить точную идентификацию ресторана при фотографировании фасада.
  2. Действия на основе патента: Загрузить в Google Business Profile актуальные фотографии фасада, сделанные днем и вечером (соответствует фильтрации по времени суток, Claim 15). Проверить, что в метаданных (EXIF) корректно указаны GPS-координаты (соответствует фильтрации по местоположению, Claim 14).
  3. Ожидаемый результат: Когда пользователь фотографирует ресторан вечером, система с большей вероятностью сопоставит его запрос с вечерними фотографиями в базе данных (из-за схожего освещения) и использует геолокацию для подтверждения, что гарантирует точное распознавание.

Вопросы и ответы

Как именно контекст (время и местоположение) используется в этом патенте?

Контекст используется для повышения точности и скорости. Местоположение пользователя сужает поиск до объектов поблизости (Claim 14). Время суток используется для сравнения с временем съемки изображений в базе данных (Claim 15). Это позволяет системе сопоставлять изображения при схожих условиях освещения (например, дневной и ночной свет), что значительно повышает точность распознавания.

Что такое "View Fusion" и как это влияет на Image SEO?

View Fusion — это механизм, который связывает визуальные признаки (Feature Vectors) одного и того же объекта, снятого с разных ракурсов, для создания полной модели (Claim 15). Это позволяет распознать объект независимо от угла обзора пользователя. Для Image SEO это означает, что критически важно предоставлять несколько фотографий продукта или объекта с разных сторон, а не ограничиваться одним видом.

Влияет ли этот патент на работу Google Lens?

Да, безусловно. Патент описывает фундаментальную архитектуру системы Visual Mobile Search, которая является прямым предшественником Google Lens. Ключевые концепции, такие как использование камеры для поиска, применение контекста (время, место) и комбинация различных технологий распознавания (текст, объекты, лица), реализованы в Google Lens.

Какие типы движков распознавания использует Google согласно патенту?

Патент описывает мультимодальную архитектуру (Claim 2), использующую несколько специализированных движков, работающих параллельно: Optical Character Recognition (OCR) для текста, Face Recognition Engine для лиц и Object Recognition Engine для общих объектов. Результаты их работы объединяются модулем интеграции (Integrator Module).

Нужно ли сохранять EXIF-данные в изображениях на сайте?

Да, исходя из этого патента, сохранение EXIF-данных, особенно временных меток и GPS-координат, является хорошей практикой. Эти данные предоставляют Google важный контекст (Claim 14 и 15), который используется для связывания изображения с конкретной локацией и условиями съемки, что улучшает точность визуального распознавания.

Как этот патент связан с Local SEO?

Связь очень тесная. Система активно использует геолокацию для идентификации местных объектов. Для Local SEO это подчеркивает важность наличия качественных и разнообразных (разные ракурсы, разное время суток) фотографий бизнеса в Google Business Profile, чтобы обеспечить их корректное распознавание при визуальных запросах пользователей поблизости.

Что такое параметризация по условиям освещения (Claim 1)?

Это означает, что при сохранении визуальных признаков объекта система также учитывает условия освещения, при которых они были получены (parameterized according to a corresponding illumination condition). Это позволяет системе более эффективно сопоставлять объекты, выбирая эталон с наиболее похожим освещением или корректируя сравнение признаков.

Как оптимизировать изображения продуктов для E-commerce, исходя из этого патента?

Необходимо фокусироваться на качестве и разнообразии. Загружайте четкие изображения. Обязательно предоставляйте фотографии с разных ракурсов для поддержки View Fusion. Также полезно добавлять фотографии продукта при различном освещении, чтобы помочь системе учесть вариативность условий съемки.

В патенте упоминаются алгоритмы SIFT и Gabor wavelets. Актуальны ли они сегодня?

Конкретно эти алгоритмы считаются устаревшими и были заменены более мощными методами на основе глубокого обучения (нейронные сети) для генерации визуальных эмбеддингов. Однако принцип работы — извлечение признаков (Feature Vectors) и их сравнение — остается неизменным, как и общая архитектура системы.

Могут ли пользователи сами добавлять изображения в базу данных Google согласно патенту?

Да, патент упоминает возможность для пользователей или разработчиков приложений отправлять изображения для пополнения базы данных распознавания. Также описан механизм автоматического обновления представлений объектов за счет анализа изображений, которые пользователи отправляют в качестве запросов, если система уверена в результате распознавания.

Похожие патенты

Как Google заложил основу визуального поиска (Google Lens), превращая изображения с камеры в поисковые запросы
Google разработал систему, позволяющую использовать изображения с мобильных устройств в качестве поисковых запросов. Система распознает объекты на изображении (продукты, здания, текст, лица), преобразует их в символьное описание (текстовый запрос) и использует его для поиска релевантной информации в стандартной поисковой системе.
  • US8421872B2
  • 2013-04-16
  • Мультимедиа

  • Семантика и интент

  • Индексация

Как Google разбирает визуальные запросы, отправляя их одновременно в несколько специализированных поисковых систем (OCR, распознавание лиц, объектов)
Google использует архитектуру для обработки визуальных запросов (изображений), которая одновременно отправляет изображение в несколько параллельных поисковых систем (распознавание текста, лиц, объектов, штрихкодов). Система агрегирует результаты, часто создавая интерактивный документ, где разные части изображения связаны с соответствующими результатами поиска, и использует обратную связь для обучения.
  • US9135277B2
  • 2015-09-15
  • Мультимедиа

  • SERP

Как Google распознает и связывает объекты на изображении с результатами поиска (Архитектура Google Lens)
Google использует систему параллельных поисковых движков (OCR, распознавание лиц, объектов, продуктов) для анализа визуального запроса (изображения). Система создает интерактивный документ, накладывая на исходное изображение визуальные идентификаторы (например, рамки или метки) для распознанных объектов. Эти идентификаторы служат ссылками на конкретные результаты поиска для каждого объекта.
  • US9087059B2
  • 2015-07-21
  • Мультимедиа

  • Ссылки

Как Google комбинирует визуальные признаки и распознанный текст (OCR) внутри изображения для улучшения визуального поиска
Google использует технологию мультимодального поиска, которая анализирует как визуальные характеристики захваченного изображения (например, с камеры телефона), так и текст, распознанный внутри него (OCR). Комбинация этих двух типов данных позволяет точнее идентифицировать электронный оригинал изображения, что критически важно для работы систем визуального поиска (например, Google Lens).
  • US9323784B2
  • 2016-04-26
  • Мультимедиа

  • Индексация

  • Семантика и интент

Как Google разбирает изображения на части для визуального поиска товаров (e.g., Google Lens)
Система Google для визуального поиска товаров, которая анализирует изображения, извлекая глобальные и локальные признаки (цвет, форма, текстура). Патент описывает, как это позволяет пользователям искать похожие товары, выделяя конкретные части объекта (например, узор на сумке или форму каблука), используя технологию, лежащую в основе Google Lens.
  • US9008435B2
  • 2015-04-14
  • Мультимедиа

  • Индексация

  • Google Shopping

Популярные патенты

Как Google использует социальный граф и активность друзей для персонализации и переранжирования результатов поиска
Google использует данные из социального графа пользователя и активность его контактов (лайки, шеры, комментарии, плейлисты) для изменения ранжирования результатов поиска. Контент, одобренный социальным окружением, повышается в выдаче и сопровождается аннотациями, объясняющими причину повышения и указывающими на свежесть социального действия.
  • US8959083B1
  • 2015-02-17
  • Персонализация

  • Поведенческие сигналы

  • SERP

Как Google использует контекст пользователя для генерации неявных поисковых запросов и проактивного показа результатов
Система Google отслеживает контекст пользователя в реальном времени (набираемый текст, открытые документы, письма). На основе этого контекста автоматически генерируются множественные неявные запросы. Система объединяет результаты из разных источников (локальных и глобальных) и проактивно показывает их пользователю, используя поведенческие данные (клики) для улучшения релевантности.
  • US7664734B2
  • 2010-02-16
  • Поведенческие сигналы

  • Персонализация

  • Семантика и интент

Как Google динамически перестраивает SERP в реальном времени, основываясь на взаимодействии пользователя с подзадачами
Google использует специализированные AI-модели для разбивки сложных запросов (задач) на подзадачи. Система отслеживает, с какими подзадачами взаимодействует пользователь, и динамически обновляет выдачу, подгружая больше релевантного контента для этой подзадачи прямо во время скроллинга страницы. Это позволяет уточнять интент пользователя в реальном времени.
  • US20250209127A1
  • 2025-06-26
  • SERP

  • Поведенческие сигналы

  • Семантика и интент

Как Google создает и наполняет Панели Знаний (Knowledge Panels), используя шаблоны сущностей и популярность фактов
Google использует систему для отображения Панелей Знаний (Knowledge Panels) рядом с результатами поиска. Когда запрос относится к конкретной сущности (человеку, месту, компании), система выбирает соответствующий шаблон и наполняет его контентом из разных источников. Выбор фактов для отображения основан на том, как часто пользователи искали эту информацию в прошлом.
  • US9268820B2
  • 2016-02-23
  • Knowledge Graph

  • SERP

  • Семантика и интент

Как Google объединяет данные о ссылках и кликах для расчета авторитетности страниц (Query-Independent Score)
Google использует механизм расчета независимой от запроса оценки авторитетности (Query-Independent Score) с помощью дополненного графа ресурсов. Этот граф объединяет традиционные ссылки между страницами с данными о поведении пользователей, такими как клики по результатам поиска (CTR). Авторитетность передается не только через ссылки, но и через запросы, позволяя страницам с высоким уровнем вовлеченности пользователей набирать авторитет, даже если у них мало обратных ссылок.
  • US8386495B1
  • 2013-02-26
  • Поведенческие сигналы

  • Ссылки

  • SERP

Как Google использует последовательность кликов пользователей (Co-selection) для классификации изображений и фильтрации контента (SafeSearch)
Google анализирует, какие изображения пользователи выбирают последовательно в рамках одной сессии (co-selection). Если Изображение Б часто выбирается сразу после Изображения А (с известной темой), система присваивает Изображению Б ту же тему. Этот механизм использует графовый анализ поведения для уточнения тематики изображений, что критично для повышения релевантности и работы фильтров, таких как SafeSearch.
  • US8856124B2
  • 2014-10-07
  • Безопасный поиск

  • Поведенческие сигналы

  • Семантика и интент

Как Google обрабатывает клики по ссылкам на мобильные приложения (App Deep Links) в результатах поиска
Google использует механизм клиентской обработки результатов поиска, ведущих в нативные приложения. Если у пользователя не установлено нужное приложение, система на устройстве автоматически подменяет ссылку приложения (App Deep Link) на эквивалентный веб-URL. Это гарантирует доступ к контенту через браузер и обеспечивает бесшовный пользовательский опыт.
  • US10210263B1
  • 2019-02-19
  • Ссылки

  • SERP

Как Google использует машинное обучение и поведение пользователей для понимания скрытого намерения в коммерческих запросах
Google использует систему машинного обучения для анализа того, какие товары пользователи выбирают после ввода широких или неоднозначных запросов. Изучая скрытые атрибуты (метаданные) этих выбранных товаров, система определяет «скрытое намерение» запроса. Это позволяет автоматически переписывать будущие неоднозначные запросы в структурированный формат, ориентированный на атрибуты товара, а не только на ключевые слова.
  • US20180113919A1
  • 2018-04-26
  • Семантика и интент

  • SERP

  • Поведенческие сигналы

Как Google A/B тестирует и оптимизирует сниппеты (заголовки, описания, изображения) для повышения CTR
Google использует механизм для оптимизации отображения контента (сниппетов). Система показывает разные варианты заголовков, описаний или изображений для одной и той же ссылки разным пользователям или на разных платформах. Затем она измеряет кликабельность (CTR) каждого варианта и выбирает наиболее эффективный для дальнейшего использования, учитывая также тип устройства пользователя.
  • US9569432B1
  • 2017-02-14
  • SERP

  • Поведенческие сигналы

  • Персонализация

Как Google (YouTube) ранжирует видео, повышая те, которые начинают сессию просмотра и приводят внешний трафик ("Lead Video")
Google использует систему ранжирования для видеоплатформ, которая идентифицирует "ведущее видео" (Lead Video), инициирующее сессию просмотра. Система применяет повышающие коэффициенты (Scaling Factors) ко времени просмотра этого видео. Видео, привлекшие пользователя на платформу из внешних источников (например, из социальных сетей или поиска Google), получают значительно больший коэффициент, чем те, что были найдены через внутренние рекомендации.
  • US10346417B2
  • 2019-07-09
  • Мультимедиа

  • Поведенческие сигналы

  • SERP

seohardcore