Google использует систему для ответа на текстовые запросы (например, «Сколько я потратил в ресторане?») путем анализа личной библиотеки изображений. Система предварительно классифицирует фотографии (например, чеки, меню, пейзажи), используя распознавание объектов и текста (OCR). Это позволяет быстро найти нужную информацию в релевантной категории и представить ответ в виде обрезанного изображения или аудиосообщения.
Описание
Какую задачу решает
Патент решает задачу эффективного и точного извлечения конкретной фактической информации из большой коллекции изображений пользователя (например, личных фотографий) в ответ на текстовый запрос. Основная проблема — снижение вычислительных затрат и времени поиска. Система достигает этого за счет предварительной классификации изображений и сужения пространства поиска только до релевантных категорий, а также за счет выборочного применения ресурсоемкого процесса OCR.
Что запатентовано
Запатентована система обработки запросов к изображениям (Image Query Processing System). Она использует гибридный подход к классификации изображений, комбинируя распознавание объектов и текста. При получении текстового запроса система определяет необходимую категорию изображения (Image Category) и тип запрашиваемого контента (Output Type), что позволяет быстро найти и извлечь конкретные данные для ответа (например, сумму из чека).
Как это работает
Система работает в двух режимах:
- Офлайн-классификация (Индексирование): Изображения предварительно классифицируются. Сначала используется распознавание объектов. Если результат однозначен (например, «пейзаж»), он сохраняется. Если нет (например, обнаружен текст), активируется OCR для уточнения категории (например, «чек» или «меню»).
- Обработка запроса (Рантайм): Текстовый запрос анализируется для определения целевой категории и типа вывода. Поиск выполняется только внутри этой категории. Найдя ответ, система извлекает его и форматирует результат: обрезает изображение (cropping), чтобы акцентировать внимание на ответе, или генерирует аудиосообщение.
Актуальность для SEO
Высокая. Механизмы, описанные в патенте, лежат в основе функций поиска в персональных фото-сервисах (таких как Google Photos) и тесно связаны с технологиями Google Assistant и Google Lens. Гибридная классификация изображений и извлечение фактов из них являются ключевыми направлениями развития поиска.
Важность для SEO
Влияние на стандартные SEO-стратегии минимальное (20/100). Патент сфокусирован на механизмах поиска по личной коллекции изображений пользователя, а не по общедоступному веб-индексу. Он не описывает ранжирование публичных веб-сайтов. Однако патент имеет высокое концептуальное значение, так как раскрывает передовые методы Google в области классификации изображений и OCR. Эти технологии фундаментальны для Visual Search и Google Lens.
Детальный разбор
Термины и определения
- Image Category (Категория изображения)
- Классификация изображения на основе его содержания (например, «пейзаж», «чек», «меню», «документ»). Определяется с помощью распознавания объектов и/или текста.
- Image Query Processing System (Система обработки запросов к изображениям)
- Основная система, описанная в патенте, которая классифицирует изображения и отвечает на текстовые запросы, используя их контент.
- Object Classification System (Система классификации объектов)
- Компонент, который анализирует изображение на основе изображенных на нем объектов (визуальных признаков) для определения начальной категории изображения (Initial Image Category).
- Optical Character Recognition (OCR) Device (Устройство оптического распознавания символов)
- Компонент, используемый для идентификации и извлечения текста, изображенного на картинке.
- Output Type (Тип вывода)
- Тип запрашиваемого контента, определяемый из запроса (например, «изображение», «аннотированное изображение», «общая стоимость», «текстовая сводка», «аудиоответ»). Определяет, как должен быть представлен ответ.
- Query Processing System (Система обработки запросов)
- Компонент, который анализирует входящий текстовый запрос для определения Image Category, Output Type и ключевых фраз (Key Phrases).
- Results Presentation System (Система представления результатов)
- Компонент, который форматирует результаты для отображения или озвучивания, включая обрезку (cropping) или выделение релевантных частей изображений.
- Text Classification System (Система классификации текста)
- Компонент, который анализирует изображение на основе слов, извлеченных с помощью OCR, и их расположения для уточнения категории изображения (Second Image Category).
Ключевые утверждения (Анализ Claims)
Claim 1 (Независимый пункт): Описывает основной процесс ответа на текстовый запрос с использованием изображений.
- Определение Image Category и Output Type на основе текстуального запроса.
- Выбор подмножества изображений из базы данных, которые принадлежат к этой Image Category (используя предварительно сохраненные связи).
- Анализ данных выбранных изображений для определения тех, которые отвечают на запрос.
- Определение ответа на запрос с использованием этих изображений.
- Предоставление ответа для презентации, используя Output Type.
Claim 3 (Зависимый от 1): Детализирует механизм визуального представления ответа.
- Определение ответа включает выбор части (portion) изображения, которая содержит данные, релевантные запросу.
- Предоставление ответа включает генерацию инструкций для UI, который акцентирует (emphasizes) эту выбранную часть (например, путем обрезки или выделения).
Claim 20 (Независимый пункт): Описывает офлайн-процесс классификации изображений (гибридный подход).
- Анализ изображения с использованием распознавания объектов (Object Recognition) для определения начальной категории (Initial Image Category).
- Проверка, входит ли начальная категория в определенную группу (т.е. является ли она достаточно точной и не требующей анализа текста, например, «пейзаж»).
- Если ДА: Использовать начальную категорию как финальную.
- Если НЕТ (например, категория «текст» или «документ»): Анализ изображения с использованием распознавания текста (Text Recognition/OCR) для определения второй категории (Second Image Category).
- Определение финальной категории с использованием начальной и второй категорий.
- Сохранение связи изображения и категории в базе данных.
Claim 22 (Независимый пункт): Описывает процесс генерации аудиоответа.
Процесс аналогичен Claim 1 и 3 (определение категории, выбор подмножества, анализ, выбор релевантной части изображения). Финальный шаг — генерация инструкций для звукового представления (audible presentation) извлеченных данных и предоставление этих инструкций динамику.
Где и как применяется
Изобретение применяется в системах поиска по личным коллекциям изображений (например, Google Photos).
INDEXING – Индексирование и извлечение признаков
На этом этапе происходит предварительная обработка и классификация изображений (Офлайн-процесс). Object Classification System и, при необходимости, Text Classification System (OCR) анализируют изображения для определения их категорий. Результаты сохраняются в базе данных.
QUNDERSTANDING – Понимание Запросов
Query Processing System анализирует входящий текстовый запрос в реальном времени для определения Image Category, Output Type и Key Phrases.
RANKING – Ранжирование (Отбор кандидатов)
Система использует определенную Image Category для быстрого отбора подмножества изображений. Это радикально сокращает поисковое пространство.
RERANKING / METASEARCH – Переранжирование / Представление
Система анализирует отобранное подмножество для поиска точного ответа. Results Presentation System форматирует вывод: определяет область ответа (Bounding Box), обрезает изображение (cropping) или генерирует аудиоответ.
Входные данные:
- Коллекция изображений пользователя (пиксельные данные и метаданные).
- Текстовый запрос пользователя.
Выходные данные:
- Ответ на запрос (текстовая сводка, обрезанное/выделенное изображение или аудиосообщение).
На что влияет
- Конкретные типы контента: Наибольшее влияние на изображения, содержащие фактическую или структурированную информацию: чеки, меню, документы, визитные карточки, презентации, вывески.
- Специфические запросы: Влияет на информационные запросы, направленные на извлечение фактов из личной коллекции изображений (например, «Сколько я потратил…?», «В какой ресторан я ходил…?»).
Когда применяется
- Условия работы: Применяется, когда пользователь отправляет текстовый запрос к системе, имеющей доступ к проиндексированной и классифицированной коллекции изображений этого пользователя.
- Триггеры активации: Запрос, который подразумевает поиск фактической информации, которая может содержаться в изображениях (Information Extraction intent).
Пошаговый алгоритм
Процесс А: Офлайн-классификация изображений (Индексирование)
- Получение данных изображения.
- Анализ объектов: Object Classification System анализирует изображение для определения начальной категории (Initial Image Category).
- Проверка категории: Система определяет, является ли начальная категория достаточно определенной (входит ли в «особую группу», например, «пейзаж»).
- Условие:
- Если ДА: Начальная категория используется как финальная. Переход к шагу 6.
- Если НЕТ (например, обнаружен текст или документ): Переход к шагу 5.
- Анализ текста: Text Classification System и OCR анализируют текст и его структуру на изображении для определения второй категории (Second Image Category, например, «чек», «меню»). Финальная категория определяется на основе начальной и второй.
- Сохранение: Связь между изображением и его категорией сохраняется в базе данных.
Процесс Б: Обработка запроса в реальном времени
- Получение текстуального запроса.
- Анализ запроса: Query Processing System определяет Image Category, Output Type и Key Phrases.
- Отбор кандидатов: Система выбирает подмножество изображений, соответствующих Image Category.
- Анализ подмножества: Система анализирует данные отобранных изображений (используя ключевые фразы, метаданные, текст OCR), чтобы найти изображения, отвечающие на запрос.
- Извлечение и Локализация: Для релевантных изображений система идентифицирует конкретные данные и определяет часть изображения, содержащую эти данные (например, с помощью Bounding Box).
- Генерация ответа: Results Presentation System генерирует инструкции для презентации. Это может включать:
- Обрезку (cropping) изображения для акцентирования ответа.
- Генерацию текстовой сводки (summary), если найдено несколько результатов.
- Генерацию аудиоответа.
- Предоставление ответа: Инструкции отправляются на дисплей или динамик.
Какие данные и как использует
Данные на входе
Патент фокусируется на обработке изображений и запросов в контексте персонального поиска.
- Мультимедиа факторы: Пиксельные данные изображений. Используются для распознавания объектов (Object Classification).
- Контентные факторы (Текст): Текст, извлеченный с помощью OCR. Используется для классификации текста (Text Classification) и поиска ответа на запрос.
- Структурные факторы (внутри изображения): Расположение текста (layout) и границы объектов. Используются для классификации (например, определение «чека» по структуре) и для определения области обрезки.
- Временные и Географические факторы: Метаданные изображения (временные метки, GPS-координаты) могут использоваться для фильтрации изображений (например, при запросе «на прошлой неделе»).
- Пользовательские факторы: Текстуальные запросы пользователя.
Какие метрики используются и как они считаются
- Image Category / Output Type: Метки классификации, присваиваемые изображению и запросу соответственно.
- Bounding Box (Ограничивающий прямоугольник): Координаты области на изображении, содержащей релевантные данные. Используется для обрезки и выделения.
- Classification Accuracy (Точность классификации): В описании упоминается как критерий для принятия решения. Если точность распознавания объектов удовлетворяет пороговому значению, OCR может не использоваться.
- Output Format (Формат вывода): Определяется на основе количества результатов и Output Type (например, одиночный результат или сводка — summary).
Выводы
- Фокус на персональном поиске: Ключевой вывод — этот патент описывает систему для поиска информации в личных коллекциях изображений пользователя (например, Google Photos). Прямых выводов для ранжирования веб-сайтов в Google Search он не дает.
- Гибридная и эффективная классификация: Запатентован конкретный метод экономии ресурсов: сначала используется распознавание объектов. Ресурсоемкий процесс OCR активируется только при необходимости (если изображение похоже на документ), а не для всех изображений (например, пейзажей).
- Эффективность за счет категоризации: Предварительная классификация изображений по категориям используется для радикального сокращения поискового пространства при обработке запроса в реальном времени.
- Извлечение фактов, а не поиск картинок: Система нацелена на Information Extraction. Цель – извлечь конкретный факт (имя, сумму, дату) из изображения для прямого ответа на вопрос.
- Адаптивная презентация результатов: Система динамически форматирует ответ. Она может агрессивно обрезать (cropping) изображение, чтобы выделить ответ, или предоставить аудиоответ вместо визуального.
Практика
Практическое применение в SEO
ВАЖНО: Этот патент является инфраструктурным и описывает процессы Google для персонального поиска изображений. Он не дает прямых практических рекомендаций для SEO-продвижения веб-сайтов.
Тем не менее, он демонстрирует возможности Google в области анализа изображений (Computer Vision, OCR), которые также используются в Google Images и Google Lens. Понимание этих возможностей полезно для общей стратегии работы с визуальным контентом.
Best practices (это мы делаем)
- Обеспечение читаемости текста на изображениях (OCR-Ready): Патент подтверждает, что Google активно использует OCR для классификации изображений и извлечения данных. Текст на изображениях (инфографика, схемы, фотографии товаров с этикетками, баннеры) должен быть четким, контрастным и легко распознаваемым.
- Четкий визуальный контекст для классификации: Система использует распознавание объектов для первичной классификации. Убедитесь, что изображения на сайте имеют ясный визуальный фокус и что ключевые объекты легко идентифицируются, чтобы облегчить их корректную классификацию.
- Структурирование данных на изображениях: Для изображений, содержащих данные (например, прайс-листы, характеристики), используйте четкую структуру (например, табличную). Это поможет системам извлечения информации корректно интерпретировать контент.
Worst practices (это делать не надо)
- Использование сложных шрифтов для важной информации: Использование декоративных, рукописных или слишком мелких шрифтов для критически важной информации (например, цен, артикулов) может помешать OCR корректно извлечь данные.
- Низкое качество и контрастность: Размытые изображения или низкоконтрастный текст на шумном фоне затрудняют как распознавание объектов, так и работу OCR.
- Сокрытие важной информации только в изображениях: Полагаться только на изображение для передачи важной информации рискованно. Всегда дублируйте ключевую информацию в HTML-тексте или микроразметке.
Стратегическое значение
Патент подтверждает высокий уровень развития технологий Google в области машинного зрения и извлечения информации (Information Extraction). Он демонстрирует способность системы не только классифицировать изображения по объектам, но и понимать их функциональный тип (чек, меню) и извлекать конкретные текстовые данные. Это подчеркивает важность оптимизации под визуальный поиск (Visual Search) и Google Lens, где изображения рассматриваются как источник структурированных данных.
Практические примеры
Практических примеров для SEO нет, так как патент описывает поиск по личным данным. Примеры из патента иллюстрируют работу с личными фотографиями.
Пример из патента (Персональный поиск):
- Индексирование: Пользователь фотографирует чек. Система классифицирует его: Object Classification определяет «текст/документ», затем OCR и Text Classification уточняют категорию до «чек».
- Запрос: Пользователь спрашивает: «Сколько я потратил в ресторане Extravaganza?».
- Обработка: Система определяет Image Category = «чек» и Output Type = «общая стоимость».
- Поиск: Система ищет среди чеков упоминание «Extravaganza» и извлекает итоговую сумму.
- Вывод: Система показывает пользователю обрезанную часть чека с итоговой суммой или озвучивает ответ: «€29.63».
Вопросы и ответы
Влияет ли этот патент на ранжирование моего сайта в Google Web Search или Google Images?
Нет, напрямую не влияет. Патент описывает систему для анализа личной библиотеки фотографий пользователя (например, в Google Photos). Он не касается механизмов ранжирования общедоступных веб-страниц или изображений в интернете. Однако он демонстрирует технологии (OCR, классификация), которые Google использует повсеместно.
Как работает описанная гибридная классификация изображений?
Это двухэтапный процесс для экономии ресурсов. Сначала система использует быстрое распознавание объектов. Если она уверена в категории (например, «пейзаж»), классификация завершается. Если результат неоднозначен или изображение содержит текст, активируется второй, более ресурсоемкий этап — OCR и анализ текста для уточнения категории (например, чтобы отличить «чек» от «меню»).
Что такое «Output Type» и зачем он нужен?
Output Type — это тип ответа, который ожидает пользователь. Система определяет его из запроса (например, «Сколько я потратил?» = «общая стоимость»). Это помогает системе понять, какую именно информацию нужно извлечь из картинки (например, итоговую сумму на чеке) и в каком формате ее показать (текст, обрезанное изображение или аудио).
Что означает, что система «акцентирует» (emphasizes) часть изображения?
Это означает, что система выделяет ту часть изображения, которая содержит ответ. На практике это реализуется путем обрезки (cropping) изображения, чтобы показать только нужную область (например, итоговую сумму на чеке), или путем визуального выделения этой области (например, рамкой).
Может ли эта система отвечать голосом?
Да. Патент (Claim 22) явно описывает генерацию инструкций для аудио-презентации (audible presentation) ответа. Система может озвучить извлеченные данные, например: «Вы потратили 29.63 евро в ресторане Extravaganza», и предоставить этот ответ через динамик устройства.
Какую практическую пользу для SEO можно извлечь из этого патента?
Основная польза — это подтверждение важности оптимизации изображений для машинного чтения, особенно для Visual Search и Google Lens. Для SEO-специалистов это сигнал о том, что текст на изображениях (инфографика, товары) должен быть максимально доступным для OCR (четким, контрастным), а сами изображения должны быть понятными для корректной классификации объектов.
Использует ли система OCR при каждом запросе?
Не обязательно. OCR активно используется на этапе предварительной классификации (офлайн), если изображение содержит текст. Во время запроса система может использовать уже извлеченный текст или, при необходимости, запустить OCR повторно для анализа отобранного подмножества изображений.
Может ли система комбинировать информацию из нескольких изображений?
Да. Патент описывает сценарии с несколькими релевантными изображениями. В этом случае система может сгенерировать сводку (summary). Например, в ответ на запрос «Сколько я потратил на обед на прошлой неделе?» система может найти три чека, показать общую сумму и список отдельных трат.
Используются ли метаданные изображений (время, место съемки)?
Да, в патенте упоминается возможность использования метаданных, таких как временные метки (timestamp) и GPS-координаты. Это позволяет системе отвечать на запросы, содержащие временные или географические ограничения (например, «ресторан, в котором я был в прошлую среду»).
Что важнее для этой системы: распознавание объектов или распознавание текста?
Они работают в тандеме. Распознавание объектов используется первым для быстрой общей классификации и принятия решения о необходимости запуска распознавания текста. Распознавание текста (OCR) критически важно для анализа документов и извлечения конкретных ответов на запросы пользователя. Эффективность зависит от слаженной работы обоих компонентов.