Google разработал систему для индексации и поиска 3D-моделей. Система может автоматически аннотировать части объектов (например, определять «объектив» на камере), изучая их форму и расположение. Это позволяет искать 3D-объекты, используя изображения или другие 3D-модели в качестве запроса. Результаты поиска включают интерактивные 3D-модели, которые можно вращать прямо в выдаче (moveable inline).
Описание
Какую задачу решает
Патент решает две основные задачи. Во-первых, автоматизация понимания структуры 3D-моделей. Система учится автоматически распознавать и аннотировать части объектов (например, «шнурки» на модели обуви) на основе обучающей выборки, устраняя необходимость ручной разметки. Во-вторых, обеспечение эффективного поиска по базе данных 3D-моделей с использованием различных типов запросов (изображений, 3D-моделей) и предоставление интерактивного пользовательского опыта непосредственно в результатах поиска.
Что запатентовано
Запатентована система поиска и взаимодействия с 3D-моделями. Ядром изобретения (Claims 1-18) является метод поиска, который принимает дескриптор (например, изображение) и сравнивает его с базой данных 3D-моделей. Для сравнения система генерирует рендеры (изображения) хранимых 3D-моделей с разных ракурсов. Результаты поиска включают релевантные 3D-модели и связанные изображения, причем 3D-модели представляются в интерактивном формате (moveable inline), позволяя пользователю вращать их прямо в выдаче.
Как это работает
Система работает в двух основных режимах: индексация и поиск.
Индексация (Аннотирование): Система анализирует обучающий набор аннотированных 3D-моделей в определенной категории. Она изучает форму (shape), внешний вид (appearance) и пространственное расположение (spatial-layout information) частей. Затем она использует эти знания для автоматического аннотирования новых 3D-моделей в этой же категории.
Поиск: Пользователь отправляет запрос с дескриптором. Если это изображение, система сравнивает его с рендерами индексированных 3D-моделей (сгенерированными с canonical viewpoints или равномерных ракурсов). Если это 3D-модель, используется сравнение формы и внешнего вида. Система генерирует выдачу, включающую релевантные 3D-модели, которые отображаются в интерактивном окне просмотра (preview pane).
Актуальность для SEO
Высокая. Патент напрямую связан с развитием визуального поиска (Google Lens), Google Shopping и технологий дополненной реальности (AR) в поиске. Возможность просмотра 3D-моделей товаров и AR-функционал уже активно интегрируются в SERP Google в 2025 году. Описанные механизмы индексации, аннотирования и интерактивного отображения являются фундаментальными для масштабирования этих функций.
Важность для SEO
Патент имеет высокое значение (8.5/10), особенно для E-commerce SEO. Он описывает инфраструктуру, которая позволяет Google понимать 3D-контент и использовать его как новый тип вертикального поиска и элемента SERP. Для SEO-специалистов это означает необходимость интеграции 3D-активов в стратегию продвижения товаров. Сайты, предоставляющие качественные 3D-модели, могут получить преимущество в виде высококонверсионных интерактивных сниппетов.
Детальный разбор
Термины и определения
- 3D object data model (Трехмерная модель данных объекта)
- Цифровое представление трехмерной поверхности или объема объекта, состоящее из коллекции точек в 3D-пространстве, соединенных геометрическими элементами.
- Annotated parts (Аннотированные части)
- Части 3D-модели (например, «объектив» камеры), которые были идентифицированы и помечены меткой или описанием.
- Candidate 3D object data model (Кандидатная 3D-модель)
- Новая 3D-модель, которая обрабатывается системой для автоматического распознавания и аннотирования ее неразмеченных частей.
- Canonical viewpoints (Канонические точки обзора)
- Стандартные или репрезентативные ракурсы для объектов определенной категории (например, вид спереди, сзади, сверху).
- Descriptor (Дескриптор)
- Информация, используемая в качестве поискового запроса. Может быть изображением, полной 3D-моделью, частичной 3D-моделью или метаданными.
- Moveable inline (Перемещаемый в строке / Интерактивный в выдаче)
- Способ отображения 3D-модели в результатах поиска, позволяющий пользователю взаимодействовать с ней (например, вращать) непосредственно на странице выдачи, например, внутри preview pane.
- Shape descriptors (Дескрипторы формы)
- Векторы числовых атрибутов, кодирующие информацию о форме 3D-объекта. Используются для сравнения сходства между моделями.
- Spatial-layout information (Информация о пространственном расположении)
- Данные, определяющие, как различные аннотированные части объекта расположены относительно друг друга (например, расстояние и ориентация).
Ключевые утверждения (Анализ Claims)
Патент содержит 18 пунктов формулы. Основной независимый пункт — Claim 1, который фокусируется на процессе поиска с использованием изображения в качестве запроса.
Claim 1 (Независимый пункт): Описывает метод поиска 3D-моделей по изображению и способ отображения результатов.
- Система получает поисковый запрос, содержащий дескриптор в виде изображения (image of the object) объекта определенной категории.
- Система сравнивает дескриптор с базой данных 3D-моделей. Процесс сравнения включает:
- Генерацию набора рендеров (set of rendered images) для хранимых 3D-моделей.
- Сравнение изображения из запроса с этими рендерами.
- Определение соответствующих (релевантных) 3D-моделей на основе этого сравнения.
- Генерация результата поиска, включающего эти соответствующие 3D-модели и связанные с ними изображения.
- Организация результата поиска таким образом, чтобы он включал: связанные изображения, соответствующие 3D-модели И исходное изображение из запроса. При этом 3D-модели должны быть moveable inline.
- Предоставление результата поиска.
Claim 3 (Зависимый от 1): Уточняет механизм интерактивности.
Организация 3D-моделей как moveable inline включает их размещение внутри preview pane (окна предварительного просмотра) в результатах поиска, где модели могут индивидуально вращаться (individually rotatable).
Claim 5 и 7 (Зависимые от 1): Уточняют методы генерации рендеров.
Рендеры могут генерироваться на основе canonical viewpoints, специфичных для данной категории объектов (Claim 5), или на основе точек обзора, которые «существенно равномерно распределены» (substantially evenly spaced) вокруг модели (Claim 7).
Claim 9 и 10 (Зависимые от 1): Описывают процесс, когда дескриптором является 3D-модель (Claim 9) или частичная 3D-модель (Claim 10).
В этих случаях сравнение осуществляется путем сравнения shape and appearance information (информации о форме и внешнем виде) запроса и хранимых моделей.
Claim 18 (Зависимый от 1): Описывает интерактивность интерфейса.
При выборе одного из связанных изображений в результатах поиска, вид соответствующей 3D-модели корректируется в соответствии с видом на выбранном изображении.
Где и как применяется
Изобретение затрагивает несколько этапов поисковой архитектуры, обеспечивая функциональность для специализированного поиска 3D-объектов.
INDEXING – Индексирование и извлечение признаков
Основной этап для подготовки данных. Система должна обработать 3D-модели. Хотя Claims фокусируются на поиске, в Detailed Description подробно описан процесс предобработки:
- Автоматическое аннотирование: Система анализирует spatial-layout information, shape и appearance частей из обучающих данных для автоматической разметки новых 3D-моделей.
- Извлечение признаков: Вычисление Shape descriptors для сравнения форм.
- Генерация рендеров: Создание изображений 3D-моделей с canonical viewpoints или равномерно распределенных ракурсов для использования в визуальном поиске.
QUNDERSTANDING – Понимание Запросов
Система должна определить тип дескриптора (текст, изображение, 3D-модель) и извлечь из него признаки для поиска в специализированной базе данных 3D-моделей.
RANKING – Ранжирование (Вертикальный поиск 3D)
Процесс отбора кандидатов из базы 3D-моделей. Ранжирование основано на сравнении дескриптора запроса с хранимыми данными. Используются метрики схожести (distance function) между изображением запроса и рендерами или между Shape descriptors.
METASEARCH – Метапоиск и Смешивание / SERP Presentation
Финальный этап формирования выдачи. Система организует результаты, включая 3D-модели и изображения. Ключевая особенность — реализация интерфейса moveable inline, позволяющего интерактивное взаимодействие с 3D-моделями внутри preview pane.
На что влияет
- Конкретные типы контента: 3D-модели (CAD-файлы, сканы объектов), изображения товаров.
- Специфические запросы: Визуальные поисковые запросы (поиск по картинке), коммерческие запросы (поиск товаров).
- Конкретные ниши или тематики: Наибольшее влияние на E-commerce (электроника, одежда, обувь, мебель, автозапчасти), где визуализация продукта критична, а также на образовательный контент.
Когда применяется
- Триггеры активации: Активируется, когда пользователь инициирует поиск в специализированном индексе 3D-моделей (например, через Google Lens) или когда система определяет интент пользователя как поиск продукта, для которого доступны 3D-модели.
Пошаговый алгоритм
Патент описывает два ключевых процесса: автоматическое аннотирование 3D-моделей (Индексация) и поиск 3D-моделей (Обработка запроса).
Процесс А: Автоматическое аннотирование 3D-модели (Индексация)
- Сбор обучающих данных: Получение набора 3D-моделей объектов одной категории с уже аннотированными частями.
- Анализ и Моделирование частей: Система анализирует обучающие данные для изучения формы (shape) и внешнего вида (appearance) каждой части. Также определяется spatial-layout information — как части обычно расположены относительно друг друга (например, с использованием графических моделей, таких как Байесовские сети).
- Получение кандидата: Получение новой (кандидатной) 3D-модели той же категории с неаннотированными частями.
- Применение аннотаций: На основе изученных моделей частей и информации о пространственном расположении система идентифицирует соответствующие части на кандидатной модели (используя методы shape matching) и применяет к ним аннотации (например, в виде call-outs).
- Индексация: Аннотированная модель индексируется для последующего поиска.
Процесс Б: Поиск 3D-моделей по изображению (Обработка запроса, Claim 1)
- Получение запроса: Сервер получает поисковый запрос, содержащий дескриптор (изображение) объекта.
- Сравнение с базой данных: Дескриптор сравнивается с содержимым базы данных 3D-моделей.
- Система использует (или генерирует) набор рендеров для 3D-моделей в базе, используя канонические (Claim 5) или равномерные (Claim 7) точки обзора.
- Изображение из запроса сравнивается с этими рендерами для определения схожести.
- Генерация результатов: На основе сравнения генерируется результат поиска, включающий релевантные 3D-модели и связанные изображения.
- Организация выдачи: 3D-модели и изображения компонуются таким образом, чтобы 3D-модели были moveable inline (например, вращались внутри preview pane, Claim 3). В выдачу также включается исходное изображение запроса.
- Предоставление результатов: Сервер предоставляет сформированный результат поиска пользователю.
Какие данные и как использует
Данные на входе
- 3D-данные (Мультимедиа/Структурные): 3D-модели объектов. Включают данные о геометрии (dense surface mesh geometry) и текстурах (color texture information). Источники: 3D-сканирование, CAD-файлы, ручное моделирование.
- Данные аннотаций (Структурные): Метки, идентифицирующие части объектов. Используются для обучения системы аннотирования.
- Данные запроса (Пользовательские): Дескрипторы: изображения, полные 3D-модели, частичные 3D-модели.
- Категоризация: Информация о принадлежности объектов к определенным категориям (например, «камеры», «обувь»).
Какие метрики используются и как они считаются
Система использует метрики для сравнения форм и внешнего вида.
- Shape Descriptors (Дескрипторы формы): Высокоразмерные векторы, кодирующие информацию о форме объекта. Патент упоминает возможные признаки: curvature features (признаки кривизны), PCA features, geodesic distance features.
- Distance Function (Функция расстояния): Используется для измерения несходства (dissimilarity) между дескриптором запроса и дескрипторами моделей в базе данных. Результаты поиска сортируются по возрастанию значения этой функции.
- Spatial-layout information (Информация о пространственном расположении): Метрики, описывающие взаимное расположение частей. Могут включать normalized geodesic distances (нормализованные геодезические расстояния) между частями и информацию об относительной ориентации поверхностей (relative surface orientation).
- Методы сравнения: Для 3D-моделей используются методы shape matching (на основе feature correspondences или global descriptors). Для сравнения изображений используется сравнение запроса с рендерами 3D-моделей.
Выводы
- Google активно развивает инфраструктуру для 3D и AR поиска. Патент подтверждает намерение Google индексировать 3D-модели в больших масштабах и интегрировать их непосредственно в пользовательский опыт поиска.
- Автоматическое понимание структуры 3D-объектов. Система не просто хранит 3D-файлы, она стремится понять их семантику на уровне составных частей (annotated parts), используя информацию о форме, внешнем виде и взаимном расположении (spatial-layout information).
- Интерактивность в SERP (Moveable Inline). Ключевой элемент патента — представление 3D-моделей в интерактивном формате прямо в выдаче. Это значительно повышает вовлеченность пользователя по сравнению со статичными изображениями.
- Мультимодальность запросов. Система разработана для обработки различных типов входных данных (descriptors): изображений, полных или частичных 3D-моделей.
- Визуальный поиск как мост к 3D. При поиске по изображению система сравнивает его с рендерами 3D-моделей, сгенерированными с канонических или равномерных ракурсов. Это позволяет связать реальные 2D-изображения с их 3D-представлениями.
- Критичность для E-commerce. Описанные технологии напрямую применимы к онлайн-ритейлу, предоставляя пользователям возможность детально изучить товар перед покупкой.
Практика
Best practices (это мы делаем)
- Инвестировать в создание 3D-активов для товаров. Для E-commerce сайтов наличие качественных 3D-моделей становится важным фактором конкурентоспособности. Это позволит участвовать в интерактивных форматах выдачи (moveable inline), описанных в патенте.
- Использовать стандартизированные форматы и оптимизацию. Ориентироваться на веб-стандарты (например, glTF), поддерживаемые Google для 3D и AR. Модели должны быть оптимизированы для быстрой загрузки (патент упоминает сжатие и децимацию).
- Оптимизировать изображения товаров под визуальный поиск (Canonical Viewpoints). Поскольку система использует рендеры 3D-моделей с canonical viewpoints для сравнения, важно иметь высококачественные, четкие фотографии товаров с разных стандартных ракурсов (спереди, сзади, сверху). Это повышает вероятность корректного сопоставления.
- Применять микроразметку для 3D-моделей. Использовать Schema.org (например, Product и потенциально 3DModel) для предоставления поисковым системам метаданных о наличии 3D-моделей на странице, что может способствовать их индексации и отображению.
- Обеспечивать семантическую точность описаний. Точная категоризация и описание частей товара поможет системе корректно классифицировать и потенциально аннотировать 3D-модель, используя текстовые данные как дополнительные сигналы к визуальному анализу.
Worst practices (это делать не надо)
- Игнорировать 3D и AR технологии в E-commerce. Полагаться исключительно на статичные изображения товаров приведет к упущенным возможностям и потере трафика из новых интерактивных форматов поиска.
- Использовать низкокачественные или неоптимизированные 3D-модели. Тяжелые, плохо текстурированные модели будут медленно загружаться и плохо выглядеть в интерактивном просмотре (moveable inline), ухудшая пользовательский опыт и, вероятно, ранжирование.
- Предоставлять вводящие в заблуждение визуальные данные. Попытки манипулировать системой путем предоставления 3D-моделей или изображений, не соответствующих реальному товару, будут неэффективны, так как система опирается на точное визуальное и геометрическое сравнение (shape and appearance information).
Стратегическое значение
Этот патент является частью стратегического перехода Google к более визуальному, интерактивному и иммерсивному поиску, особенно в коммерческих нишах. Он закладывает основу для будущего, где взаимодействие с 3D-объектами и дополненной реальностью станет стандартом в онлайн-шопинге. Для SEO-стратегии это означает смещение фокуса с традиционной текстовой оптимизации на оптимизацию визуальных и трехмерных активов. Раннее внедрение 3D-технологий позволит бизнесу занять лидирующие позиции в этой новой экосистеме.
Практические примеры
Сценарий: Оптимизация карточки товара (кроссовки) для 3D-поиска
- Действие: Ритейлер заказывает 3D-сканирование новой модели кроссовок и получает оптимизированную 3D-модель в формате glTF.
- Реализация: 3D-модель встраивается в карточку товара на сайте. В микроразметку Product добавляется ссылка на файл 3D-модели. На страницу добавляются высококачественные фотографии кроссовок со всех сторон (канонические ракурсы).
- Обработка Google (согласно патенту): Google индексирует 3D-модель. Система автоматического аннотирования может распознать части (шнурки, подошву) на основе spatial-layout information, изученной на других моделях обуви. Google генерирует рендеры этой модели с разных ракурсов и сохраняет их в индексе.
- Результат: Когда пользователь ищет эту модель кроссовок (по тексту или через Google Lens), в результатах поиска Google может показать интерактивный сниппет. Пользователь может вращать (moveable inline) 3D-модель кроссовок прямо в SERP или активировать AR-просмотр.
Вопросы и ответы
Какое значение этот патент имеет для интернет-магазинов?
Критическое. Патент описывает технологию, позволяющую Google отображать интерактивные 3D-модели товаров прямо в результатах поиска (moveable inline). Это значительно улучшает пользовательский опыт и может радикально повысить CTR и конверсию. Интернет-магазины, которые предоставят Google доступ к 3D-моделям своих товаров, получат значительное преимущество в выдаче.
Что такое «moveable inline» в контексте SERP?
Это означает, что 3D-модель не является статичным изображением, а представляет собой интерактивный элемент, встроенный непосредственно в страницу результатов поиска (например, в preview pane). Пользователь может вращать, масштабировать и перемещать модель, не покидая страницу выдачи. Это позволяет детально рассмотреть объект со всех сторон.
Как Google понимает, из каких частей состоит 3D-модель?
Патент описывает механизм автоматического аннотирования (в Detailed Description). Система обучается на примерах размеченных 3D-моделей в определенной категории. Она изучает форму, внешний вид (shape and appearance) и взаимное расположение (spatial-layout information) частей. Затем она использует эти знания для автоматического распознавания и маркировки частей на новых 3D-моделях.
Как работает поиск, если пользователь использует изображение в качестве запроса?
Система сравнивает изображение пользователя с базой данных 3D-моделей (Claim 1). Для этого она использует заранее сгенерированные рендеры (изображения) хранимых 3D-моделей, сделанные с разных ракурсов (canonical viewpoints или равномерно распределенных). Если находится высокое сходство между запросом и рендером, соответствующая 3D-модель возвращается в результатах поиска.
Нужно ли мне оптимизировать мои текущие изображения товаров в связи с этим патентом?
Да. Поскольку система генерирует рендеры с канонических точек обзора (спереди, сзади, сверху) для сравнения, наличие на вашем сайте высококачественных фотографий товара с этих же ракурсов улучшает способность Google связывать визуальные запросы с вашими продуктами и вашими 3D-моделями.
Может ли система искать по части 3D-модели?
Да, патент (Claim 10) явно указывает, что в качестве дескриптора (запроса) может использоваться частичная 3D-модель (partial 3D object data model). В этом случае для поиска используется сравнение информации о форме и внешнем виде этой части с полными моделями в базе данных.
Какие форматы 3D-файлов следует использовать?
Патент не специфицирует форматы файлов, он описывает общие принципы работы с 3D-данными (меши, текстуры). Однако, исходя из текущих рекомендаций Google для веба и AR (и упоминания WebGL в патенте), наиболее предпочтительным форматом для предоставления 3D-активов поисковым системам является glTF.
Как SEO-специалист может помочь Google проиндексировать 3D-модели с сайта?
Основной способ — использование микроразметки Schema.org и/или загрузка через Google Merchant Center. Необходимо добавить разметку (например, Product и 3DModel) на страницу товара, предоставив ссылку на соответствующий файл. Это явно сигнализирует поисковой системе о наличии 3D-контента, готового к индексации.
Влияет ли этот патент на традиционное текстовое ранжирование?
Напрямую нет. Он описывает механизм для специализированного вертикального поиска 3D-объектов и их отображения. Однако интеграция этих интерактивных результатов в основную выдачу (через Metasearch/Blending) может повлиять на распределение внимания и кликов, смещая трафик от стандартных синих ссылок к интерактивным 3D-сниппетам.
Связан ли этот патент с Google Lens?
Да, существует тесная связь. Google Lens позволяет пользователям использовать камеру (т.е. изображение) для поиска информации об объектах. Описанный в патенте механизм сравнения входного изображения с рендерами 3D-моделей является ключевой технологией, позволяющей Google Lens идентифицировать объекты и предоставлять связанные с ними 3D-модели или информацию о товарах.