
Google разработал систему для индексации и поиска 3D-моделей. Система может автоматически аннотировать части объектов (например, определять «объектив» на камере), изучая их форму и расположение. Это позволяет искать 3D-объекты, используя изображения или другие 3D-модели в качестве запроса. Результаты поиска включают интерактивные 3D-модели, которые можно вращать прямо в выдаче (moveable inline).
Патент решает две основные задачи. Во-первых, автоматизация понимания структуры 3D-моделей. Система учится автоматически распознавать и аннотировать части объектов (например, «шнурки» на модели обуви) на основе обучающей выборки, устраняя необходимость ручной разметки. Во-вторых, обеспечение эффективного поиска по базе данных 3D-моделей с использованием различных типов запросов (изображений, 3D-моделей) и предоставление интерактивного пользовательского опыта непосредственно в результатах поиска.
Запатентована система поиска и взаимодействия с 3D-моделями. Ядром изобретения (Claims 1-18) является метод поиска, который принимает дескриптор (например, изображение) и сравнивает его с базой данных 3D-моделей. Для сравнения система генерирует рендеры (изображения) хранимых 3D-моделей с разных ракурсов. Результаты поиска включают релевантные 3D-модели и связанные изображения, причем 3D-модели представляются в интерактивном формате (moveable inline), позволяя пользователю вращать их прямо в выдаче.
Система работает в двух основных режимах: индексация и поиск.
Индексация (Аннотирование): Система анализирует обучающий набор аннотированных 3D-моделей в определенной категории. Она изучает форму (shape), внешний вид (appearance) и пространственное расположение (spatial-layout information) частей. Затем она использует эти знания для автоматического аннотирования новых 3D-моделей в этой же категории.
Поиск: Пользователь отправляет запрос с дескриптором. Если это изображение, система сравнивает его с рендерами индексированных 3D-моделей (сгенерированными с canonical viewpoints или равномерных ракурсов). Если это 3D-модель, используется сравнение формы и внешнего вида. Система генерирует выдачу, включающую релевантные 3D-модели, которые отображаются в интерактивном окне просмотра (preview pane).
Высокая. Патент напрямую связан с развитием визуального поиска (Google Lens), Google Shopping и технологий дополненной реальности (AR) в поиске. Возможность просмотра 3D-моделей товаров и AR-функционал уже активно интегрируются в SERP Google в 2025 году. Описанные механизмы индексации, аннотирования и интерактивного отображения являются фундаментальными для масштабирования этих функций.
Патент имеет высокое значение (8.5/10), особенно для E-commerce SEO. Он описывает инфраструктуру, которая позволяет Google понимать 3D-контент и использовать его как новый тип вертикального поиска и элемента SERP. Для SEO-специалистов это означает необходимость интеграции 3D-активов в стратегию продвижения товаров. Сайты, предоставляющие качественные 3D-модели, могут получить преимущество в виде высококонверсионных интерактивных сниппетов.
preview pane.Патент содержит 18 пунктов формулы. Основной независимый пункт — Claim 1, который фокусируется на процессе поиска с использованием изображения в качестве запроса.
Claim 1 (Независимый пункт): Описывает метод поиска 3D-моделей по изображению и способ отображения результатов.
image of the object) объекта определенной категории.set of rendered images) для хранимых 3D-моделей.moveable inline.Claim 3 (Зависимый от 1): Уточняет механизм интерактивности.
Организация 3D-моделей как moveable inline включает их размещение внутри preview pane (окна предварительного просмотра) в результатах поиска, где модели могут индивидуально вращаться (individually rotatable).
Claim 5 и 7 (Зависимые от 1): Уточняют методы генерации рендеров.
Рендеры могут генерироваться на основе canonical viewpoints, специфичных для данной категории объектов (Claim 5), или на основе точек обзора, которые «существенно равномерно распределены» (substantially evenly spaced) вокруг модели (Claim 7).
Claim 9 и 10 (Зависимые от 1): Описывают процесс, когда дескриптором является 3D-модель (Claim 9) или частичная 3D-модель (Claim 10).
В этих случаях сравнение осуществляется путем сравнения shape and appearance information (информации о форме и внешнем виде) запроса и хранимых моделей.
Claim 18 (Зависимый от 1): Описывает интерактивность интерфейса.
При выборе одного из связанных изображений в результатах поиска, вид соответствующей 3D-модели корректируется в соответствии с видом на выбранном изображении.
Изобретение затрагивает несколько этапов поисковой архитектуры, обеспечивая функциональность для специализированного поиска 3D-объектов.
INDEXING – Индексирование и извлечение признаков
Основной этап для подготовки данных. Система должна обработать 3D-модели. Хотя Claims фокусируются на поиске, в Detailed Description подробно описан процесс предобработки:
spatial-layout information, shape и appearance частей из обучающих данных для автоматической разметки новых 3D-моделей.Shape descriptors для сравнения форм.canonical viewpoints или равномерно распределенных ракурсов для использования в визуальном поиске.QUNDERSTANDING – Понимание Запросов
Система должна определить тип дескриптора (текст, изображение, 3D-модель) и извлечь из него признаки для поиска в специализированной базе данных 3D-моделей.
RANKING – Ранжирование (Вертикальный поиск 3D)
Процесс отбора кандидатов из базы 3D-моделей. Ранжирование основано на сравнении дескриптора запроса с хранимыми данными. Используются метрики схожести (distance function) между изображением запроса и рендерами или между Shape descriptors.
METASEARCH – Метапоиск и Смешивание / SERP Presentation
Финальный этап формирования выдачи. Система организует результаты, включая 3D-модели и изображения. Ключевая особенность — реализация интерфейса moveable inline, позволяющего интерактивное взаимодействие с 3D-моделями внутри preview pane.
Патент описывает два ключевых процесса: автоматическое аннотирование 3D-моделей (Индексация) и поиск 3D-моделей (Обработка запроса).
Процесс А: Автоматическое аннотирование 3D-модели (Индексация)
shape) и внешнего вида (appearance) каждой части. Также определяется spatial-layout information — как части обычно расположены относительно друг друга (например, с использованием графических моделей, таких как Байесовские сети).shape matching) и применяет к ним аннотации (например, в виде call-outs).Процесс Б: Поиск 3D-моделей по изображению (Обработка запроса, Claim 1)
moveable inline (например, вращались внутри preview pane, Claim 3). В выдачу также включается исходное изображение запроса.dense surface mesh geometry) и текстурах (color texture information). Источники: 3D-сканирование, CAD-файлы, ручное моделирование.Система использует метрики для сравнения форм и внешнего вида.
curvature features (признаки кривизны), PCA features, geodesic distance features.dissimilarity) между дескриптором запроса и дескрипторами моделей в базе данных. Результаты поиска сортируются по возрастанию значения этой функции.normalized geodesic distances (нормализованные геодезические расстояния) между частями и информацию об относительной ориентации поверхностей (relative surface orientation).shape matching (на основе feature correspondences или global descriptors). Для сравнения изображений используется сравнение запроса с рендерами 3D-моделей.annotated parts), используя информацию о форме, внешнем виде и взаимном расположении (spatial-layout information).descriptors): изображений, полных или частичных 3D-моделей.moveable inline), описанных в патенте.canonical viewpoints для сравнения, важно иметь высококачественные, четкие фотографии товаров с разных стандартных ракурсов (спереди, сзади, сверху). Это повышает вероятность корректного сопоставления.Product и потенциально 3DModel) для предоставления поисковым системам метаданных о наличии 3D-моделей на странице, что может способствовать их индексации и отображению.moveable inline), ухудшая пользовательский опыт и, вероятно, ранжирование.shape and appearance information).Этот патент является частью стратегического перехода Google к более визуальному, интерактивному и иммерсивному поиску, особенно в коммерческих нишах. Он закладывает основу для будущего, где взаимодействие с 3D-объектами и дополненной реальностью станет стандартом в онлайн-шопинге. Для SEO-стратегии это означает смещение фокуса с традиционной текстовой оптимизации на оптимизацию визуальных и трехмерных активов. Раннее внедрение 3D-технологий позволит бизнесу занять лидирующие позиции в этой новой экосистеме.
Сценарий: Оптимизация карточки товара (кроссовки) для 3D-поиска
Product добавляется ссылка на файл 3D-модели. На страницу добавляются высококачественные фотографии кроссовок со всех сторон (канонические ракурсы).spatial-layout information, изученной на других моделях обуви. Google генерирует рендеры этой модели с разных ракурсов и сохраняет их в индексе.moveable inline) 3D-модель кроссовок прямо в SERP или активировать AR-просмотр.Какое значение этот патент имеет для интернет-магазинов?
Критическое. Патент описывает технологию, позволяющую Google отображать интерактивные 3D-модели товаров прямо в результатах поиска (moveable inline). Это значительно улучшает пользовательский опыт и может радикально повысить CTR и конверсию. Интернет-магазины, которые предоставят Google доступ к 3D-моделям своих товаров, получат значительное преимущество в выдаче.
Что такое «moveable inline» в контексте SERP?
Это означает, что 3D-модель не является статичным изображением, а представляет собой интерактивный элемент, встроенный непосредственно в страницу результатов поиска (например, в preview pane). Пользователь может вращать, масштабировать и перемещать модель, не покидая страницу выдачи. Это позволяет детально рассмотреть объект со всех сторон.
Как Google понимает, из каких частей состоит 3D-модель?
Патент описывает механизм автоматического аннотирования (в Detailed Description). Система обучается на примерах размеченных 3D-моделей в определенной категории. Она изучает форму, внешний вид (shape and appearance) и взаимное расположение (spatial-layout information) частей. Затем она использует эти знания для автоматического распознавания и маркировки частей на новых 3D-моделях.
Как работает поиск, если пользователь использует изображение в качестве запроса?
Система сравнивает изображение пользователя с базой данных 3D-моделей (Claim 1). Для этого она использует заранее сгенерированные рендеры (изображения) хранимых 3D-моделей, сделанные с разных ракурсов (canonical viewpoints или равномерно распределенных). Если находится высокое сходство между запросом и рендером, соответствующая 3D-модель возвращается в результатах поиска.
Нужно ли мне оптимизировать мои текущие изображения товаров в связи с этим патентом?
Да. Поскольку система генерирует рендеры с канонических точек обзора (спереди, сзади, сверху) для сравнения, наличие на вашем сайте высококачественных фотографий товара с этих же ракурсов улучшает способность Google связывать визуальные запросы с вашими продуктами и вашими 3D-моделями.
Может ли система искать по части 3D-модели?
Да, патент (Claim 10) явно указывает, что в качестве дескриптора (запроса) может использоваться частичная 3D-модель (partial 3D object data model). В этом случае для поиска используется сравнение информации о форме и внешнем виде этой части с полными моделями в базе данных.
Какие форматы 3D-файлов следует использовать?
Патент не специфицирует форматы файлов, он описывает общие принципы работы с 3D-данными (меши, текстуры). Однако, исходя из текущих рекомендаций Google для веба и AR (и упоминания WebGL в патенте), наиболее предпочтительным форматом для предоставления 3D-активов поисковым системам является glTF.
Как SEO-специалист может помочь Google проиндексировать 3D-модели с сайта?
Основной способ — использование микроразметки Schema.org и/или загрузка через Google Merchant Center. Необходимо добавить разметку (например, Product и 3DModel) на страницу товара, предоставив ссылку на соответствующий файл. Это явно сигнализирует поисковой системе о наличии 3D-контента, готового к индексации.
Влияет ли этот патент на традиционное текстовое ранжирование?
Напрямую нет. Он описывает механизм для специализированного вертикального поиска 3D-объектов и их отображения. Однако интеграция этих интерактивных результатов в основную выдачу (через Metasearch/Blending) может повлиять на распределение внимания и кликов, смещая трафик от стандартных синих ссылок к интерактивным 3D-сниппетам.
Связан ли этот патент с Google Lens?
Да, существует тесная связь. Google Lens позволяет пользователям использовать камеру (т.е. изображение) для поиска информации об объектах. Описанный в патенте механизм сравнения входного изображения с рендерами 3D-моделей является ключевой технологией, позволяющей Google Lens идентифицировать объекты и предоставлять связанные с ними 3D-модели или информацию о товарах.

Семантика и интент
Мультимедиа

Мультимедиа
SERP
Индексация

Мультимедиа

Мультимедиа

Мультимедиа
SERP
Семантика и интент

Поведенческие сигналы
Ссылки

Персонализация
SERP
Ссылки

Поведенческие сигналы
Семантика и интент
EEAT и качество

Поведенческие сигналы
Ссылки
SERP

Свежесть контента
Ссылки
Техническое SEO

Персонализация
Семантика и интент
Local SEO

Семантика и интент
Поведенческие сигналы
SERP

Семантика и интент
Поведенческие сигналы
Персонализация

Поведенческие сигналы

Local SEO
SERP
Ссылки
