
Google использует данные с датчиков мобильного устройства (камера, микрофон, GPS) для понимания неоднозначных запросов пользователя, таких как «Что я вижу?» или «Что это за песня?». Система распознает объекты или звуки в окружении пользователя и использует эту информацию для преобразования контекстуального вопроса в конкретный поисковый запрос, обеспечивая релевантные результаты на основе реального мира.
Патент решает проблему обработки неоднозначных или неполных поисковых запросов, поступающих с мобильных устройств, когда пользователь хочет получить информацию об объектах в своем непосредственном окружении. Традиционные системы поиска требуют четких текстовых запросов. Изобретение позволяет пользователям задавать контекстуальные вопросы (например, «Что это?», «Расскажи мне об этом здании», «Что за песня играет?») и получать точные ответы, устраняя необходимость ручной идентификации объекта пользователем.
Запатентована система, которая устраняет неоднозначность поисковых запросов (Query Disambiguation) путем анализа контекста пользователя, полученного с датчиков мобильного устройства (Sensor Data). Если запрос содержит неоднозначные термины или местоимения (pronoun), система анализирует сопутствующие данные (изображение, аудиозапись, GPS). Система выполняет распознавание (Recognition Process) этих данных для идентификации конкретных объектов, мест или звуков и использует их для преобразования исходного неоднозначного запроса в конкретный поисковый запрос.
Механизм работает следующим образом:
Sensor Data (изображение, аудио, местоположение).Query Disambiguation Module выполняет процессы распознавания (например, визуальное распознавание объектов, аудио-фингерпринтинг) на Sensor Data.Критически высокая. Этот патент описывает базовую технологию, лежащую в основе современных функций мультимодального поиска, таких как Google Lens, Circle to Search и контекстуальный голосовой поиск. Патент также упоминает применение в носимых устройствах (wearable computing device), что остается актуальным направлением развития поисковых интерфейсов.
Влияние на традиционное SEO (ранжирование веб-страниц) минимальное, так как патент фокусируется на понимании запроса (Query Understanding). Однако он имеет высокое стратегическое значение для понимания эволюции поиска в сторону мультимодальности. Он подчеркивает критическую важность оптимизации сущностей (продуктов, локаций, брендов) для визуального и аудиального распознавания. Для SEO-специалистов это означает смещение фокуса на обеспечение того, чтобы их контент и продукты были легко идентифицируемыми системами машинного зрения и слуха.
pronoun), такие как «этот», «тот», «он».Ambiguous Query Terms.Sensor Data и использует результаты распознавания для уточнения Ambiguous Query Terms.Image Data (фото, видео), Audio Data (звук, музыка) и Location Data (GPS).Claim 1, 11, 21 (Независимые пункты): Описывают основной метод, программное обеспечение и систему для обработки поискового запроса.
incomplete search query) из-за наличия «неоднозначных терминов» (ambiguous query terms), которые включают «местоимение» (pronoun).Sensor Data, захваченные датчиком устройства.Recognition Process на Sensor Data для идентификации как минимум одного элемента.resolving the pronoun).second search query), связанному с этим элементом.Claim 3 (Зависимый): Уточняет Сценарий B. Если первый запрос запрашивает информацию, система создает второй поисковый запрос на основе идентифицированного элемента.
Claim 4 (Зависимый): Уточняет обработку голосовых запросов. Выполняется распознавание речи для идентификации неоднозначных терминов, которые затем заменяются идентифицированным элементом при создании второго запроса.
Claims 5, 6, 7 (Зависимые): Определяют типы используемых сенсорных данных: Image data и Image signature (Claim 5), Audio data и Audio signature (Claim 6), Location data (Claim 7).
Это изобретение является ключевым компонентом систем понимания запросов при работе с мультимодальным вводом.
QUNDERSTANDING – Понимание Запросов
Это основной этап применения патента. Система должна интерпретировать ввод, состоящий из явного запроса (текст/голос) и неявного контекста (сенсорные данные).
Sensor Data.Ambiguous Query Terms или местоимений.Sensor Data.INDEXING – Индексирование и извлечение признаков
Система полагается на индексы, содержащие Image Signatures и Audio Signatures, а также данные Knowledge Graph для идентификации сущностей.
RANKING – Ранжирование
На этом этапе выполняется стандартное ранжирование для второго, уточненного запроса (Сценарий B).
Входные данные:
Sensor Data (изображения, видеопоток, аудиосэмплы, данные GPS).Выходные данные:
Recognition Process. Если распознавание не удалось, механизм не сработает.Процесс обработки мультимодального запроса
Sensor Data. Данные передаются на сервер.Sensor Data.Ambiguous Query Terms.Recognition Process на соответствующих Sensor Data. Например, если запрос «Что я слушаю?», анализируется аудио.image/audio signatures) с базой данных.Патент фокусируется на использовании данных, описывающих контекст пользователя в реальном мире, для уточнения запроса.
Патент не детализирует конкретные алгоритмы ранжирования, но описывает следующие ключевые элементы обработки данных:
Sensor Data и используются для сопоставления с базой данных известных объектов/звуков.Ambiguous Query Terms.Sensor Data был успешно идентифицирован.Хотя патент описывает механизмы понимания запросов, а не ранжирования, он дает важные инсайты для стратегий, направленных на повышение видимости в эпоху мультимодального поиска (Google Lens, Circle to Search).
Recognition Process) должны легко идентифицировать объект по этим изображениям, чтобы сформировать правильную Image Signature.second search query).Location Data и Image Data для идентификации мест. Хорошо оптимизированный профиль увеличивает вероятность правильной идентификации при контекстуальных запросах.Этот патент имеет высокое стратегическое значение, так как описывает фундамент для перехода от «поиска по ключевым словам» к «поиску по контексту реального мира». Он показывает, как Google стирает грань между онлайн и офлайн мирами. Для SEO это означает, что оптимизация должна выходить за рамки веб-страницы и включать в себя то, как сущности (бренды, продукты) представлены визуально и как они связаны в Knowledge Graph. Видимость зависит от способности быть распознанным мультимодальными системами.
Сценарий 1: Оптимизация карточки товара для визуального распознавания (E-commerce)
Image Data с камеры (Sensor Data).Recognition Process идентифицирует модель (например, Nike Air Max 270).gtin, brand и ссылки на изображения (image).Сценарий 2: Локальный поиск (Идентификация)
Image Data и Location Data. Используя комбинацию данных, система идентифицирует здание (например, «Эмпайр-стейт-билдинг»). Поскольку запрос был на идентификацию (Сценарий А), система возвращает название объекта.Описывает ли этот патент технологию Google Lens?
Да, этот патент описывает фундаментальные принципы, лежащие в основе Google Lens, Circle to Search и других систем мультимодального поиска. Он объясняет, как система использует ввод с камеры (или других датчиков) для понимания контекста запроса пользователя о реальном мире и преобразования его в конкретный поисковый запрос.
Как этот патент влияет на традиционное SEO и ранжирование сайтов?
Напрямую на алгоритмы ранжирования веб-страниц этот патент не влияет. Он относится к этапу понимания запроса (Query Understanding). Однако он определяет, какой именно запрос будет отправлен в систему ранжирования. Если ваш продукт не распознан или распознан неверно при визуальном поиске, уточненный запрос не будет соответствовать вашему контенту, и вы не получите трафик.
Что нужно делать SEO-специалисту, чтобы оптимизировать сайт под этот механизм?
Ключевая задача — оптимизация для распознавания сущностей. Необходимо использовать высококачественные, четкие изображения продуктов и логотипов, внедрять структурированные данные (Schema.org) для связи изображений с конкретными сущностями, и обеспечивать сильное присутствие сущности в Knowledge Graph. Это помогает системам машинного зрения правильно идентифицировать объект.
Использует ли система только изображение для устранения неоднозначности?
Нет. Патент явно указывает на использование различных типов Sensor Data, включая Image Data (изображения), Audio Data (звук, музыка) и Location Data (местоположение). Система выбирает подходящий тип данных в зависимости от контекста запроса (например, анализирует аудио для запроса «Что я слушаю?»).
Что происходит, если система не может распознать объект на фото или в аудио?
Если Recognition Process завершается неудачей (No Positive Recognition), система не сможет устранить неоднозначность запроса. В этом случае поиск либо не будет выполнен, либо пользователю будут предоставлены общие или нерелевантные результаты по исходному неоднозначному запросу.
Как система понимает, к чему относится местоимение «этот» или «он»?
Система связывает местоимение с объектом, идентифицированным в Sensor Data, захваченных одновременно с запросом (например, объект в центре кадра). Кроме того, патент упоминает возможность использования контекста предыдущих запросов: «он» может относиться к сущности, которая была результатом предыдущего поиска, если новый запрос сделан в течение короткого времени.
В чем разница между этим патентом и обычным поиском по картинке?
Обычный поиск по картинке принимает изображение как запрос и ищет похожие изображения. Этот патент описывает мультимодальный ввод: он принимает и запрос (текст/голос), и изображение (или аудио), и использует изображение для уточнения текстового запроса, а не как сам запрос.
Какое значение этот патент имеет для локального SEO?
Он имеет значительное влияние. Комбинация Image Data (фото фасада) и Location Data позволяет пользователям легко идентифицировать местные бизнесы и запрашивать информацию о них (часы работы, отзывы), не зная их названия. Это подчеркивает важность качественных и актуальных фотографий в профиле Google Business Profile.
Что такое Image Signature и Audio Signature?
Это цифровые отпечатки или наборы уникальных признаков, извлеченные из изображения или аудиофайла соответственно. Они используются системой для эффективного сравнения входящих сенсорных данных с базой данных известных объектов. SEO-специалист влияет на них косвенно, предоставляя качественный исходный материал (изображения, медиа).
Как этот патент связан с Entity SEO?
Связь очень тесная. Чтобы система могла распознать объект в реальном мире, этот объект должен существовать как Сущность (Entity) в базе знаний Google (Knowledge Graph) и иметь связанные с ним визуальные или аудио атрибуты. Усиление присутствия вашей Сущности в Knowledge Graph повышает эффективность работы описанного механизма для ваших продуктов или бренда.

Мультимедиа
Семантика и интент

Семантика и интент
Персонализация
Поведенческие сигналы

Мультимедиа
Семантика и интент

Семантика и интент
Мультимедиа
Персонализация

Персонализация
Поведенческие сигналы

Антиспам
SERP
Ссылки

Поведенческие сигналы
Персонализация
Семантика и интент

Семантика и интент
SERP
Поведенческие сигналы

Поведенческие сигналы
Индексация
Семантика и интент

Ссылки
SERP

Поведенческие сигналы
SERP

Персонализация
Поведенческие сигналы
Local SEO

Семантика и интент
Персонализация
Поведенческие сигналы

Индексация
SERP
Персонализация

Local SEO
Семантика и интент
Поведенческие сигналы
