
Google использует базу данных 3D-моделей для глубокого анализа объектов в поисковых запросах, особенно в изображениях. Система сопоставляет объект с его эталонной 3D-моделью, чтобы определить точный контекст: ориентацию, масштаб, освещение и окружающую обстановку. Затем исходный запрос переписывается с учетом этого контекста, что позволяет предоставлять более релевантные результаты, адаптированные под ситуацию (например, продукт на кухне vs продукт в магазине).
Патент решает проблему ограниченного понимания контекста при обработке поисковых запросов, особенно визуальных. Традиционные системы распознавания могут идентифицировать объект на изображении, но часто не могут определить его точную ориентацию (pose), масштаб (scale), условия освещения или окружающую среду (environment). Это ограничивает способность поисковой системы понять истинный интент пользователя. Изобретение направлено на улучшение точности поиска путем использования 3D-данных для глубокого понимания сцены и контекста объекта.
Запатентована система, которая использует базу данных трехмерных (3D) моделей объектов для обогащения и переписывания поисковых запросов. Когда система получает запрос (текстовый или визуальный), указывающий на объект, она идентифицирует соответствующую 3D-модель. Используя данные этой модели (геометрию, текстуру) и связанные аннотации, система выводит контекстуальные детали. Исходный запрос затем переписывается в updated search query (обновленный поисковый запрос) с учетом этого контекста.
Ключевой механизм заключается в использовании 3D-модели как эталона для анализа запроса:
Высокая. С развитием визуального поиска (Google Lens), дополненной реальности (AR) и интеграцией 3D-моделей в поисковую выдачу (особенно для товаров), способность Google точно интерпретировать объекты и их физический контекст критически важна. Этот патент описывает фундаментальную технологию для глубокого понимания сцены, необходимую для современных функций поиска в e-commerce.
Патент имеет высокое значение (85/100), особенно для E-commerce, продуктового поиска и оптимизации под визуальный поиск. Он демонстрирует механизм, позволяющий Google определять интент на основе визуального контекста. Если система может различить продукт на кухонном столе и тот же продукт на полке магазина, она предоставит разные результаты (информационные vs коммерческие). Это подчеркивает стратегическую важность предоставления Google богатых визуальных данных, включая контекстные изображения и 3D-активы.
surface geometry) и текстуру (texture) объекта в 3D-пространстве.environment), ориентации (orientation), положении (position) или идентификацию других объектов.Claim 1 (Независимый пункт): Описывает фундаментальный метод.
updated search query.Claim 7 (Зависимый от 5): Детализирует процесс визуального поиска.
Если запрос содержит input image, идентификация происходит путем сопоставления (matching) этого изображения с одним из виртуальных видов (рендеров) 3D-модели (упомянутых в Claim 5).
Claim 8 (Зависимый от 7): Описывает механизм извлечения контекста.
На основе сравнения входного изображения и совпавшего виртуального вида, а также информации о 3D-модели, система определяет точную ориентацию, положение и условия освещения (lighting conditions) объекта. Результаты поиска конфигурируются с учетом этих параметров.
Claim 9 (Зависимый от 8): Описывает анализ сцены.
Система определяет масштаб (scale) входного изображения. Используя определенные ранее ориентацию, положение, освещение и масштаб, система идентифицирует другие объекты в окружении.
Claim 10 (Зависимый от 1): Описывает обработку 3D-ввода.
Если входной запрос включает depth information, система сравнивает её с соответствующей информацией 3D-модели для предоставления результатов.
Изобретение интегрировано в несколько этапов поисковой архитектуры, с акцентом на глубокое понимание запросов.
INDEXING – Индексирование и извлечение признаков
На этом этапе формируется База данных 3D-моделей. Это включает:
Annotation Module).QUNDERSTANDING – Понимание Запросов
Основное применение патента. Система использует 3D-данные для интерпретации входного запроса (особенно визуального).
Updated Search Query, инкапсулирующего этот контекст.RANKING / RERANKING – Ранжирование и Переранжирование
Поиск выполняется на основе Updated Search Query. Поскольку запрос обогащен контекстом, результаты ранжирования будут более релевантны ситуации пользователя. На этапе RERANKING результаты могут быть упорядочены с учетом извлеченного контекста (например, приоритет изображениям с похожим ракурсом).
Входные данные:
База данных 3D-моделей (геометрия, текстуры, аннотации, рендеры).Выходные данные:
Updated Search Query (внутреннее представление).Процесс обработки визуального запроса
matching) между входным изображением и конкретным виртуальным видом конкретной 3D-модели.orientation), положение (position) и условия освещения (lighting conditions) объекта на входном изображении.scale) входного изображения.environment) и пытается идентифицировать другие объекты на изображении.Updated Search Query. Он включает идентификацию основного объекта, его контекст и идентификацию других обнаруженных объектов. (Например, переход от [фото коробки хлопьев] к [рецепты хлопьев Бренд X на кухне]).Патент фокусируется на использовании данных, связанных с 3D-моделями, для интерпретации запросов.
Surface geometry: Данные о форме объекта (полигональная сетка, облако точек).Texture: Данные о цвете и текстуре поверхности.Depth information: Информация о глубине модели.Annotation Module: описание, производитель, URL, размеры, бренд.Depth information входного изображения, если оно получено с 3D-камеры или датчика LiDAR.Патент не описывает формулы ранжирования, но определяет ключевые вычисляемые параметры контекста и методы их получения:
Updated Search Query) на основе визуального контекста. Это означает, что интент запроса может быть радикально изменен в зависимости от того, как и где объект представлен (например, товар дома vs товар в магазине).Training Images).depth information) от современных устройств (LiDAR, 3D-камеры), что критично для AR-приложений.orientation и lighting conditions.environment и соседние объекты для переписывания запроса и определения интента.scale) при визуальном поиске.Updated Search Query.Патент подтверждает долгосрочную стратегию Google по слиянию цифрового и физического миров через компьютерное зрение (Visual Search, AR). Для SEO это означает, что оптимизация переходит от ключевых слов к оптимизации визуального представления объектов и сцен. В долгосрочной перспективе успех в продуктовом поиске будет зависеть от того, насколько хорошо Google понимает визуальные характеристики, контекст использования и физические параметры продукта.
Сценарий: Оптимизация карточки товара для кухонного блендера
3D Object Data Model Database.orientation) при визуальном поиске с любого ракурса.Что такое "Updated Search Query" в этом патенте и почему это ключевой элемент?
Updated Search Query — это результат переписывания исходного запроса пользователя, обогащенный контекстом, который система извлекла с помощью 3D-модели. Это ключевой элемент, потому что финальная поисковая выдача формируется именно по этому обновленному запросу. Это позволяет радикально изменить интент: например, из запроса на покупку сделать запрос на инструкцию, если система поняла, что объект находится в контексте использования.
Как система определяет условия освещения и масштаб на обычном 2D-фото?
Это достигается путем сравнения 2D-фото с виртуальными видами (рендерами) 3D-модели. Поскольку 3D-модель содержит точные данные о геометрии, текстуре и реальных размерах, система может найти рендер, который максимально похож на фото. Параметры этого рендера (положение виртуальной камеры и источников света) и используются для определения масштаба и освещения реальной сцены.
Должен ли я начать создавать 3D-модели своих продуктов для SEO?
Да, это стратегически важно для e-commerce. Патент упоминает получение данных от производителей как способ наполнения базы 3D-моделей. Предоставление 3D-моделей (например, через Merchant Center) напрямую помогает Google создать точное представление вашего продукта. Это улучшает идентификацию при визуальном поиске и позволяет использовать функции 3D/AR в выдаче.
Какое влияние этот патент оказывает на оптимизацию изображений для e-commerce?
Влияние значительное. Недостаточно иметь только студийные фото. Патент подчеркивает важность контекстных ("lifestyle") фотографий. Если продукт показан в реальном окружении, система может определить это окружение (environment) и скорректировать результаты поиска в соответствии с контекстом использования продукта.
Как система использует контекст для идентификации других объектов на изображении?
После того как система определила масштаб, ориентацию и освещение основного объекта (используя его 3D-модель), она получает калибровку всей сцены. Зная эти параметры, системе легче анализировать остальную часть изображения и распознавать вторичные объекты в окружении, сравнивая их с другими моделями в своей базе данных.
Применяется ли эта технология только к визуальному поиску (Google Lens)?
Хотя основное применение связано с визуальным поиском (Claim 7-10), базовый Claim 1 также охватывает текстовые запросы. Если пользователь ищет объект по тексту, система может использовать аннотации связанных 3D-моделей для уточнения запроса или для выбора и ранжирования наиболее релевантных изображений в результатах поиска.
Что делать, если у меня нет возможности создать 3D-модели моих продуктов?
Следует сосредоточиться на предоставлении максимального количества высококачественных 2D-изображений. Фотографируйте продукт со всех возможных ракурсов (360 градусов), при разном освещении и в разных контекстных окружениях. Это предоставит системе больше данных для анализа и может помочь Google самостоятельно построить или верифицировать 3D-модель.
Влияет ли этот патент на ранжирование стандартных веб-страниц (не изображений)?
Да, влияет косвенно через механизм Updated Search Query. Если визуальный анализ определяет конкретный контекст и интент (например, информационный, а не коммерческий), этот обновленный запрос используется для поиска всех типов контента. Это может повысить в выдаче релевантные информационные статьи или инструкции.
Учитывает ли система данные глубины (Depth Information) с современных смартфонов?
Да, Claim 10 прямо указывает на поддержку входных данных с информацией о глубине (например, данные LiDAR или портретного режима). Система сравнивает её с данными 3D-модели, что значительно повышает точность идентификации объекта, определения его позы и масштаба.
Как использование 3D-моделей отличается от использования обычных обучающих изображений (Training Images)?
Обычные Training Images (фотографии) статичны и ограничены условиями, при которых они были сняты. 3D-модели динамичны: система может отрендерить бесконечное количество виртуальных видов под любым углом и с любым освещением. Это значительно расширяет возможности сопоставления и идентификации объектов в сложных реальных условиях.

Индексация
Мультимедиа
SERP

Мультимедиа
SERP
Поведенческие сигналы

Мультимедиа
SERP
Индексация

Семантика и интент
Мультимедиа
Индексация

Поведенческие сигналы
Семантика и интент
SERP

Персонализация
EEAT и качество
Поведенческие сигналы

Семантика и интент
Поведенческие сигналы

Поведенческие сигналы
Семантика и интент
SERP

Поведенческие сигналы
SERP
Антиспам

SERP
Поведенческие сигналы
EEAT и качество

Поведенческие сигналы
Мультимедиа
SERP

Семантика и интент
SERP
Поведенческие сигналы

Поведенческие сигналы
SERP

Ссылки
Поведенческие сигналы
Антиспам

Персонализация
Поведенческие сигналы
SERP
