
Патент описывает комплексную систему Google для визуального поиска товаров. Система автоматически обрабатывает изображения: отделяет объект от фона (сегментация), выравнивает его, извлекает визуальные признаки (цвет, форма, текстура) и создает цифровые подписи (векторы). Это позволяет пользователям искать похожие товары, используя изображение в качестве запроса (CBIR), уточнять поиск по визуальным характеристикам и находить товары на сторонних сайтах.
Патент решает проблему ограниченности традиционного поиска изображений, который полагается преимущественно на текстовые метаданные. В контексте E-commerce этот подход не позволяет эффективно находить товары на основе их внешнего вида. Изобретение направлено на создание системы, способной понимать визуальное содержимое изображений товаров (Content-Based Image Retrieval, CBIR) и использовать это понимание для обеспечения релевантного визуального поиска (visual similarity search).
Запатентована система для анализа, индексации и поиска изображений товаров в E-commerce. Ядром изобретения является конвейер обработки изображений, включающий автоматическую сегментацию объекта от фона, его выравнивание (alignment), извлечение глобальных и локальных визуальных признаков (Global Features, Local Features) и генерацию визуальных сигнатур (Signatures). Также описаны методы использования этих сигнатур для поиска по сходству и интерфейсы для интерактивного уточнения запросов.
Система функционирует в несколько этапов:
content items (изображения, текст, метаданные) с сайтов электронной коммерции или других источников.Object Determinator классифицирует объект, используя анализ текста/метаданных и анализ изображения.Feature Extraction определяет визуальные характеристики: Глобальные (цвет, форма, текстура) и Локальные (признаки в ключевых точках или регионах).distance functions) для количественной оценки визуального сходства.Крайне высокая. Этот патент описывает фундаментальные технологии визуального поиска, которые лежат в основе современных систем, таких как Google Images, Google Shopping и Google Lens. Технологии извлечения признаков, сегментации и поиска по сходству активно развиваются и критически важны для E-commerce в 2025 году.
Патент имеет критическое значение (9/10) для SEO в сфере E-commerce. Он раскрывает механизмы, с помощью которых Google интерпретирует и ранжирует изображения товаров на основе их визуального содержания, а не только текстовых данных. Понимание этих процессов необходимо для эффективной оптимизации изображений (Image SEO) и обеспечения видимости товаров в визуальном поиске.
canonical view).key points/regions).Примечание: Полный текст Claims (Формулы изобретения) отсутствует в предоставленном фрагменте PDF, который обрывается на странице 46. Анализ основан исключительно на Abstract, Detailed Description и схемах, представленных в документе.
Направление 1: Система анализа изображений и ручного обогащения (Основано на FIG. 1, FIG. 4A/B)
Защищается система для создания коллекции распознанных изображений. Ключевые компоненты:
Editor Interface), который отображает результаты анализа в виде множества панелей (plurality of panels, grouped presentation).Manual Enrichment).Это защищает архитектуру, сочетающую автоматический анализ с эффективной системой ручной проверки для контроля качества данных.
Направление 2: Применение визуального анализа в E-commerce (Основано на Abstract, FIG. 11, FIG. 21)
Защищается метод предоставления товаров:
merchandise item).presentation) товара, например, в результатах визуального поиска.Это защищает применение технологий CBIR для автоматического понимания и каталогизации товаров.
Направление 3: Методы извлечения признаков и поиска по сходству (Основано на FIGS. 7-10, FIG. 14)
Защищаются технические методы анализа и сравнения:
distance functions).Total Distance), где веса определяются на основе машинного обучения (например, LDA) и человеческих оценок сходства.Изобретение охватывает ключевые этапы поисковой архитектуры, формируя основу для систем визуального поиска (Visual Search).
CRAWLING – Сканирование и Сбор данных
Модуль Procurement (105, 1130) сканирует сайты E-commerce или получает фиды для сбора Content Items (изображений товаров и метаданных).
INDEXING – Индексирование и извлечение признаков
Это основной этап применения патента. Система Content Analysis (1140) выполняет глубокую обработку:
Image Segmenter (110) и Align/Pre-process (115) изолируют объект от фона и нормализуют его вид.Global Features и Local Features (HOG, CSH).Object Determinator (140) анализирует изображение и метаданные для классификации товара.Quant/Vectorization (132) создает визуальные сигнатуры (Signatures 128).Editor Interface (160) используется для Manual Enrichment.Indexer (160) сохраняет данные в Index (164).QUNDERSTANDING – Понимание Запросов
Когда пользователь предоставляет ввод через User-Interface (1110) – будь то новое изображение, выбор региона или спецификация атрибута (цвет) – Query Generator (1330) формирует запрос на основе визуальных критериев. Если изображение новое (unprocessed), оно анализируется на лету.
RANKING – Ранжирование
Модуль Search (1120) выполняет Similarity Search. Он сравнивает сигнатуру запроса с индексом, используя distance functions для количественной оценки визуального сходства и ранжирования.
Входные данные:
Content Items (Изображения товаров, текст, метаданные).Manual Enrichment и обучения моделей).Выходные данные:
Index Data 162).Search Result Presentation 1128) визуально похожих товаров.Процесс А: Backend (Индексация и Анализ Товаров)
Content Items.Object Determinator).k-means clustering), формы (EHD, PCA), текстуры (фильтры Габора).Editor Interface.Процесс Б: Frontend (Обработка Запроса и Поиск)
feature distances.Total Distance), которое является взвешенной суммой расстояний отдельных признаков. Веса определяются моделью (например, LDA).buzzwords). Используются для классификации (Object Determinator) и как отдельные признаки (Metadata Features).Editor Interface для контроля качества. Оценки сходства (similarity judgments) для обучения моделей ранжирования.buzzwords) в метаданных.
Global Features), так и его детали (Local Features). Это позволяет осуществлять поиск как по общему сходству, так и по конкретным элементам дизайна.buzzwords с помощью IDF).Manual Enrichment, где операторы проверяют и исправляют ошибки алгоритмов, обеспечивая высокое качество данных в индексе.Image Segmenter мог точно отделить товар от фона.Local Features из этих регионов (используя дескрипторы типа HOG, CSH), что позволяет находить товар при поиске по фрагментам или деталям.Alignment) и улучшает качество извлечения признаков формы.Object Determinator использует текст для классификации, а система ранжирования комбинирует текстовые и визуальные сигналы. Включайте точные названия цветов, материалов и форм (buzzwords).Local Features), ухудшая качество визуального сопоставления.Этот патент фундаментально подтверждает, что для Google визуальное представление товара является полноценным фактором ранжирования в E-commerce. Для SEO-стратегии это означает необходимость интеграции стандартов качества фотоконтента, ориентированных не только на пользователя, но и на требования систем компьютерного зрения (сегментация, извлечение признаков). Image SEO становится критически важной дисциплиной для интернет-магазинов.
Сценарий: Оптимизация карточки товара (Кроссовки с уникальным узором)
segmentation и alignment).Local Features и Texture Features узора).Что такое сегментация изображения и почему она критична для SEO в E-commerce?
Сегментация — это процесс отделения товара (передний план) от фона изображения. Это критически важно, потому что система извлекает визуальные признаки (цвет, форму, текстуру) именно из сегментированного объекта. Если из-за сложного фона или низкого контраста сегментация произойдет с ошибками, система проанализирует неверные данные, и товар не будет корректно ранжироваться в визуальном поиске.
В чем разница между глобальными и локальными признаками?
Глобальные признаки (Global Features) описывают объект в целом, например, его доминирующий цвет или общий силуэт. Локальные признаки (Local Features) описывают специфические детали в ключевых точках изображения, например, узор на ткани, форму фурнитуры или логотип. Использование обоих типов позволяет находить сходство как по общему виду, так и по конкретным элементам дизайна.
Как система определяет цвет товара? Это просто анализ RGB?
Система использует более сложный подход. Она применяет алгоритмы кластеризации, такие как k-means, в различных цветовых пространствах (RGB, HSV, Lab) для определения доминирующих цветов и их весов. Также может использоваться машинное обучение для соотнесения цветов с их человеческими названиями (например, «бирюзовый», «терракотовый»).
Какую роль играют текст и метаданные (Title, Description) в этой системе визуального поиска?
Текст и метаданные играют важную роль. Они используются для первоначальной классификации объекта (понять, что это – туфля или сумка). Кроме того, система анализирует текстовые описания (buzzwords), используя метрики типа IDF, и комбинирует эти текстовые сигналы с визуальными для определения общей релевантности и сходства.
Что такое HOG и EHD, и что они значат для моих изображений?
HOG (Histogram of Oriented Gradients) и EHD (Edge Histogram Distributions) – это технические дескрипторы, которые система использует для понимания формы, структуры и текстуры объекта путем анализа границ и градиентов. Для SEO это означает, что четкость изображения, хорошее разрешение и видимость деталей критически важны, чтобы система могла точно вычислить эти дескрипторы.
Как работает функция поиска по части изображения (Local Region Selection)?
Когда пользователь выделяет область на изображении (например, каблук туфли), система фокусируется на локальных признаках (Local Features), извлеченных именно из этого региона. Затем выполняется поиск, в котором приоритет отдается совпадению этих локальных дескрипторов, что позволяет найти другие туфли с похожей формой каблука.
Как система определяет, какие товары являются «похожими»?
Сходство определяется путем расчета «расстояния» (Feature Distance) между визуальными сигнатурами запроса и изображений в базе. Система не просто сравнивает один признак, а вычисляет общее расстояние (Total Distance) как взвешенную сумму расстояний по цвету, форме и текстуре. Веса для этой суммы определяются с помощью машинного обучения.
Какие требования к фотографиям товаров следуют из этого патента?
Ключевые требования: высокое качество, контрастный и чистый фон (для успешной сегментации), стандартные ракурсы (для корректного выравнивания) и хорошая детализация, позволяющая рассмотреть текстуру и мелкие элементы. Изображения должны быть оптимизированы для машинного зрения.
Что такое "Manual Enrichment" и как он влияет на поиск?
Manual Enrichment (Ручное обогащение) — это процесс, когда люди-операторы проверяют и исправляют ошибки автоматических алгоритмов (например, неправильную сегментацию) через специальный интерфейс. Это повышает качество данных в индексе, гарантируя, что визуальные признаки извлечены корректно, что в итоге улучшает точность поиска.
Может ли эта система распознать товар на lifestyle-фотографии (например, на человеке)?
Да, патент описывает механизмы для этого (FIG. 24). Система может использовать обнаружение лиц (Face detection) как отправную точку, затем определить местоположение одежды (Clothing segmentation), исключая цвет кожи, и после этого извлечь признаки этой одежды для поиска похожих товаров.

Мультимедиа
Индексация
Google Shopping

Google Shopping
SERP
Индексация

Мультимедиа
Семантика и интент
Индексация

Мультимедиа
Индексация
Семантика и интент

Семантика и интент
Мультимедиа
SERP

Семантика и интент
Поведенческие сигналы

Персонализация
Поведенческие сигналы
SERP

SERP
Поведенческие сигналы
Персонализация

Персонализация
Поведенческие сигналы
SERP

Поведенческие сигналы
Семантика и интент
Мультимедиа

Семантика и интент
Поведенческие сигналы
SERP

Поведенческие сигналы
SERP
Семантика и интент

SERP
Семантика и интент
Ссылки

EEAT и качество
Ссылки

Семантика и интент
Поведенческие сигналы
