
Этот патент описывает фундаментальную архитектуру мобильного визуального поиска Google (например, Google Lens). Он детализирует, как изображение с телефона анализируется несколькими специализированными движками (объекты, текст, лица). Критически важно, что система использует контекст, такой как время суток и местоположение, для повышения точности распознавания и учитывает различные ракурсы и условия освещения перед возвратом релевантной информации.
Патент решает задачу создания эффективной системы поиска информации на основе визуального ввода с камеры мобильного телефона в неконтролируемых условиях реального мира. Цель — обеспечить точное и быстрое распознавание объектов, несмотря на вариации в освещении, ракурсах и расстоянии, чтобы связать физический мир с цифровой информацией («hyperlinks the physical world»).
Запатентована архитектура системы визуального мобильного поиска (Visual Mobile Search - VMS). Она основана на клиент-серверной модели, где изображение отправляется на Visual Recognition Server. Сервер использует комбинацию специализированных движков распознавания (OCR, объекты, лица) и активно применяет контекстные данные (время суток, местоположение) для фильтрации результатов. Также запатентованы методы учета вариативности освещения (parameterized feature vectors) и ракурсов (View Fusion).
Система работает следующим образом:
feature vectors.View Fusion).Integrator Module оценивает результаты (confidence values) от разных движков и выбирает лучший (Object ID).Media Server, который возвращает связанный контент (например, URL) пользователю.Критически высокая. Этот патент является фундаментальным для Google Lens и современных систем визуального поиска. Хотя конкретные алгоритмы компьютерного зрения, упомянутые в патенте (SIFT, Gabor wavelets), устарели и заменены глубоким обучением, общая архитектура, мультимодальный подход и использование контекста (время, местоположение) остаются центральными принципами работы Google в 2025 году.
Патент имеет критическое значение (8.5/10) для стратегий Визуального Поиска (VSO), Image SEO и Local SEO. Он не описывает ранжирование веб-страниц, но определяет, как Google идентифицирует объекты реального мира и связывает их с цифровым контентом. Понимание механизмов распознавания, важности контекста и необходимости разнообразных визуальных данных критически важно для оптимизации видимости в Google Lens и аналогичных сервисах.
SIFT, Gabor wavelets и learned features.illumination condition) или ракурс.feature linking) наборы признаков из нескольких обучающих изображений одного и того же объекта.View Fusion, представляющие объект с разных углов обзора.confidence values) от нескольких движков распознавания (OCR, лица, объекты) и определяет финальный результат (Object ID).Claim 1 (Независимый пункт): Определяет основную систему поиска информации на основе изображений с акцентом на освещение.
object representations) и текстовыми идентификаторами.feature vectors).parameterized according to a corresponding illumination condition).Ядром изобретения является использование векторов признаков, которые учитывают условия освещения для более надежного сопоставления.
Claim 2 (Зависимый от 1): Детализирует мультимодальную архитектуру сервера распознавания.
confidence value).Integrator module получает эти оценки и идентифицирует текстовый идентификатор.Это подтверждает мультимодальный подход, при котором изображение анализируется разными специализированными системами, а результаты объединяются.
Claim 14 (Зависимый от 1): Добавляет использование контекста местоположения.
Изображения в базе данных хранятся также в связи с местоположением (locations), где они были созданы. Система сервера распознавания сопоставляет полученное изображение, частично используя эти данные о местоположении.
Claim 15 (Независимый пункт): Описывает метод распознавания объекта с учетом угла обзора и времени суток (контекст освещения).
linked feature vectors), представляющих изображения объекта с разных углов обзора (механизм View Fusion).times of day), когда изображения были созданы.Этот метод явно использует как инвариантность к углу обзора (через связанные векторы), так и адаптацию к условиям освещения (через сравнение времени суток) для распознавания.
Этот патент описывает систему Визуального Поиска (например, Google Lens), которая функционирует параллельно традиционному веб-поиску.
INDEXING – Индексирование и извлечение признаков (Изображений)
На этом этапе формируется база данных для визуального поиска (Database of Learned Objects). Происходит извлечение ключевых признаков:
Feature Vectors (Gabor wavelets, SIFT).View Fusion: связывание векторов признаков одного объекта с разных ракурсов (Claim 15).QUNDERSTANDING – Понимание Запросов (Визуальных)
Система получает входные данные от мобильного клиента: само изображение и контекст (текущее время, текущее местоположение пользователя). Может происходить предварительное извлечение признаков на стороне клиента для оптимизации.
RANKING – Ранжирование (Визуальный Поиск / Retrieval)
Это основной этап применения патента.
Parameterized Feature Vectors и Linked Feature Vectors.Confidence Values для кандидатов.METASEARCH – Метапоиск / RERANKING – Переранжирование
Integrator Module объединяет результаты от разных движков для выбора финального Object ID. Затем система извлекает связанный контент с Media Server.
View Fusion происходят офлайн.Процесс А: Индексирование и View Fusion (Офлайн)
Feature Vectors и их параметризация по условиям освещения (Claim 1). Запись времени суток (Claim 15) и местоположения (Claim 14).Linked Feature Vectors (Claim 15).Процесс Б: Обработка визуального запроса (Онлайн)
Feature Vectors (может происходить на клиенте или сервере).Linked Feature Vectors и Parameterized Feature Vectors.Confidence Values.Integrator Module анализирует Confidence Values и выбирает финальный результат (Object ID).Media Server, который возвращает связанный контент пользователю.Система активно использует контекстные данные наряду с визуальными:
Feature Vectors.SIFT, Gabor Wavelets или других методов.color histograms) и дескрипторы текстур (texture descriptors) могут использоваться для быстрой предварительной фильтрации.Integrator Module (Claim 2). Это позволяет эффективно обрабатывать разнообразные визуальные запросы.View Fusion (Linked Feature Vectors) обеспечивает инвариантность к углу обзора (Claim 15), а Parameterized Feature Vectors учитывают различные условия освещения (Claim 1).Рекомендации направлены на улучшение видимости в системах визуального поиска, таких как Google Lens (Visual Search Optimization - VSO).
View Fusion (Claim 15) для построения полной модели объекта, критически важно предоставлять изображения продукта с разных углов обзора (360 градусов). Это увеличивает вероятность успешного распознавания при запросе пользователя с нестандартного ракурса.feature vectors, которые являются основой распознавания.View Fusion и не учитывает вариативность освещения в реальном мире, что может привести к сбоям при распознавании.feature vectors), а не текстовые описания. ALT-теги важны, но не являются основным фактором для визуальной идентификации объекта в Google Lens.Патент подтверждает долгосрочную стратегию Google по превращению камеры в основной инструмент поиска и глубокой интеграции цифрового и физического мира. Для SEO это означает, что оптимизация визуальных ассетов (VSO) является неотъемлемой частью стратегии, особенно для E-commerce и локального бизнеса. Понимание того, что контекст (время/место) и разнообразие визуальных данных напрямую влияют на распознавание, позволяет адаптироваться к современным поисковым паттернам.
Сценарий 1: Оптимизация карточки товара E-commerce для Визуального Поиска
View Fusion, Claim 15). Также добавить фото товара в реальной среде при разном освещении (для учета параметризации по illumination condition, Claim 1).Сценарий 2: Улучшение распознавания ресторана в Local SEO
Как именно контекст (время и местоположение) используется в этом патенте?
Контекст используется для повышения точности и скорости. Местоположение пользователя сужает поиск до объектов поблизости (Claim 14). Время суток используется для сравнения с временем съемки изображений в базе данных (Claim 15). Это позволяет системе сопоставлять изображения при схожих условиях освещения (например, дневной и ночной свет), что значительно повышает точность распознавания.
Что такое "View Fusion" и как это влияет на Image SEO?
View Fusion — это механизм, который связывает визуальные признаки (Feature Vectors) одного и того же объекта, снятого с разных ракурсов, для создания полной модели (Claim 15). Это позволяет распознать объект независимо от угла обзора пользователя. Для Image SEO это означает, что критически важно предоставлять несколько фотографий продукта или объекта с разных сторон, а не ограничиваться одним видом.
Влияет ли этот патент на работу Google Lens?
Да, безусловно. Патент описывает фундаментальную архитектуру системы Visual Mobile Search, которая является прямым предшественником Google Lens. Ключевые концепции, такие как использование камеры для поиска, применение контекста (время, место) и комбинация различных технологий распознавания (текст, объекты, лица), реализованы в Google Lens.
Какие типы движков распознавания использует Google согласно патенту?
Патент описывает мультимодальную архитектуру (Claim 2), использующую несколько специализированных движков, работающих параллельно: Optical Character Recognition (OCR) для текста, Face Recognition Engine для лиц и Object Recognition Engine для общих объектов. Результаты их работы объединяются модулем интеграции (Integrator Module).
Нужно ли сохранять EXIF-данные в изображениях на сайте?
Да, исходя из этого патента, сохранение EXIF-данных, особенно временных меток и GPS-координат, является хорошей практикой. Эти данные предоставляют Google важный контекст (Claim 14 и 15), который используется для связывания изображения с конкретной локацией и условиями съемки, что улучшает точность визуального распознавания.
Как этот патент связан с Local SEO?
Связь очень тесная. Система активно использует геолокацию для идентификации местных объектов. Для Local SEO это подчеркивает важность наличия качественных и разнообразных (разные ракурсы, разное время суток) фотографий бизнеса в Google Business Profile, чтобы обеспечить их корректное распознавание при визуальных запросах пользователей поблизости.
Что такое параметризация по условиям освещения (Claim 1)?
Это означает, что при сохранении визуальных признаков объекта система также учитывает условия освещения, при которых они были получены (parameterized according to a corresponding illumination condition). Это позволяет системе более эффективно сопоставлять объекты, выбирая эталон с наиболее похожим освещением или корректируя сравнение признаков.
Как оптимизировать изображения продуктов для E-commerce, исходя из этого патента?
Необходимо фокусироваться на качестве и разнообразии. Загружайте четкие изображения. Обязательно предоставляйте фотографии с разных ракурсов для поддержки View Fusion. Также полезно добавлять фотографии продукта при различном освещении, чтобы помочь системе учесть вариативность условий съемки.
В патенте упоминаются алгоритмы SIFT и Gabor wavelets. Актуальны ли они сегодня?
Конкретно эти алгоритмы считаются устаревшими и были заменены более мощными методами на основе глубокого обучения (нейронные сети) для генерации визуальных эмбеддингов. Однако принцип работы — извлечение признаков (Feature Vectors) и их сравнение — остается неизменным, как и общая архитектура системы.
Могут ли пользователи сами добавлять изображения в базу данных Google согласно патенту?
Да, патент упоминает возможность для пользователей или разработчиков приложений отправлять изображения для пополнения базы данных распознавания. Также описан механизм автоматического обновления представлений объектов за счет анализа изображений, которые пользователи отправляют в качестве запросов, если система уверена в результате распознавания.

Мультимедиа
Семантика и интент
Индексация

Мультимедиа
SERP

Мультимедиа
Ссылки

Мультимедиа
Индексация
Семантика и интент

Мультимедиа
Индексация
Google Shopping

Персонализация
Поведенческие сигналы
SERP

Поведенческие сигналы
Персонализация
Семантика и интент

SERP
Поведенческие сигналы
Семантика и интент

Knowledge Graph
SERP
Семантика и интент

Поведенческие сигналы
Ссылки
SERP

Безопасный поиск
Поведенческие сигналы
Семантика и интент

Ссылки
SERP

Семантика и интент
SERP
Поведенческие сигналы

SERP
Поведенческие сигналы
Персонализация

Мультимедиа
Поведенческие сигналы
SERP
