
Google использует систему интерактивного поиска внутри видеоконтента. Пользователь может остановить видео, и система автоматически распознает объекты и людей в кадре. Используя визуальные индикаторы (например, цветные рамки), система показывает статус идентификации (известен, неизвестен, несколько вариантов). При выборе объекта пользователь получает информацию и ссылки в оверлее поверх видео.
Патент решает задачу предоставления пользователю мгновенной информации об объектах, людях или сценах, которые он видит в видеоконтенте (например, на Smart TV или стриминговых сервисах). Это устраняет разрыв между потреблением медиаконтента и поиском связанной информации, позволяя взаимодействовать с содержимым кадра без необходимости формулировать текстовый запрос вручную.
Запатентована система и метод для интерактивного поиска по изображению, извлеченному из видео (стоп-кадр). Система автоматически идентифицирует множество элементов (plurality of items) в кадре одновременно. Ключевой особенностью является использование двухуровневой визуальной индикации: одна для статуса поиска (выполняется/завершен), другая для статуса идентификации, использующая разное оформление (например, цвет) для обозначения уверенности системы (объект известен или есть несколько вариантов).
Система работает в интерактивном режиме:
pause command) или активирует функцию поиска по изображению.known identity, другой для plurality of known identities).overlay) поверх видео.Высокая. Хотя патент подан в 2012 году и ориентирован на устройства типа Smart TV/Google TV, описанные в нем технологии лежат в основе современных систем визуального поиска, таких как Google Lens, и интерактивных функций на видеоплатформах (например, распознавание продуктов на YouTube). Распознавание сущностей внутри медиаконтента является критически важным направлением развития поиска в 2025 году.
Патент имеет минимальное влияние на традиционное SEO (ранжирование веб-сайтов). Однако он имеет высокое стратегическое значение для Video SEO и Visual Search Optimization (VSEO). Он демонстрирует, как Google связывает визуальные образы с конкретными сущностями (Knowledge Graph) и интегрирует поиск непосредственно в потребление контента. Это подчеркивает важность оптимизации визуальной идентичности брендов и продуктов для их распознаваемости.
Claim 1 (Независимый пункт): Описывает основную систему интерактивного поиска в видео.
plurality of items) в кадре.первую визуальную индикацию для обозначения статуса поиска (изменение состояния с "поиск идет" на "поиск завершен").known identity (известен), а второй элемент имеет plurality of known identities (множество вариантов).вторую визуальную индикацию для обозначения статуса идентификации путем подсветки элементов. Подсветка первого элемента отличается цветом от подсветки второго элемента, чтобы визуально различить их статусы уверенности.оверлее поверх видео, включая гиперссылку для получения дополнительной информации.Claim 8 (Независимый пункт): Описывает аналогичный метод, но уточняет, что запрос пользователя инициируется командой паузы (pause command).
Claim 2 и 9 (Зависимые): Уточняют, что идентификация может включать выполнение Character Recognition Algorithm (OCR) для определения текста на изображении.
Система может использовать OCR для чтения текста (например, названия бренда на продукте) как часть процесса идентификации объекта.
Claim 3 и 10 (Зависимые): Уточняют, что идентификация может использовать Predetermined Item Identifier Data, встроенные в видеоконтент.
Производители контента могут встраивать метаданные в видеопоток, чтобы помочь системе точно распознать показанные объекты.
Claim 4 и 11 (Зависимые): Указывают на применение системы для рекламы, где изображение содержит рекламу (advertisement) с гиперссылкой на сайт рекламодателя.
Изобретение применяется в среде просмотра видео (например, Smart TV, веб-плеер) и затрагивает следующие этапы поиска:
INDEXING – Индексирование и извлечение признаков
Система полагается на предварительно созданные индексы и модели для визуального распознавания. Image Matching Module должен иметь доступ к обширной базе данных изображений и связанных с ними сущностей (Knowledge Graph). Также на этом этапе могут быть встроены или обработаны Predetermined Item Identifier Data.
QUNDERSTANDING – Понимание Запросов
В данном контексте «запрос» является визуальным и интерактивным. Система интерпретирует действия пользователя (пауза видео, выбор объекта) как намерение получить информацию. Автоматическое выделение объектов в кадре является частью понимания визуального контекста.
METASEARCH – Метапоиск и Смешивание
Основное применение патента. Система выполняет поиск информации об идентифицированной сущности (используя визуальный индекс, базу знаний, рекламный сервер) и смешивает результаты с основным видеоконтентом в виде интерактивного слоя (overlay).
Входные данные:
Выходные данные:
First visual indication).Second visual indication – например, цветные рамки).pause command).Image Matching Module (визуальное сопоставление).Character Recognition Algorithm (OCR).Predetermined Item Identifier Data (метаданные).Known Identity, Plurality of Known Identities или Неизвестен.оверлее поверх видеоконтента.Система использует следующие данные для идентификации элементов:
Image Matching Module.Character Recognition Algorithm (OCR).Predetermined Item Identifier Data – встроенные в видеопоток идентификаторы, которые позволяют определить объект без визуального анализа.Патент не описывает метрики ранжирования (как Ranking Score), так как система фокусируется на идентификации.
Known Identity, Plurality of Known Identities или Неизвестен. Она рассчитывается на основе отчета от Image Matching Module. Вероятно, используются внутренние пороги уверенности (confidence thresholds) для определения, является ли совпадение однозначным, множественным или недостаточным.advertising labels) и коммерции, позволяя связывать объекты в кадре с гиперссылками на сайты рекламодателей.Хотя патент описывает интерфейс и технологию распознавания, а не алгоритм ранжирования, он дает важные инсайты для стратегий Video SEO и Visual Search Optimization (VSEO).
Image Matching Module необходимо, чтобы ключевые объекты, продукты, логотипы и лица были четко видны в видеоконтенте. Используйте качественное освещение и фокусировку при создании видео и изображений.Character Recognition Algorithm.Predetermined item identifier data), необходимо использовать эту функцию для гарантии точного распознавания.Plurality of Known Identities, это может указывать на недостаточно уникальный визуальный образ.Патент подтверждает долгосрочную стратегию Google на развитие визуального и контекстного поиска. Для SEO-специалистов это означает, что оптимизация больше не ограничивается текстом. Визуальное представление сущностей становится полноценным фактором в экосистеме поиска. Стратегия должна включать управление визуальными активами и обеспечение их распознаваемости алгоритмами машинного зрения, особенно в контексте роста популярности Video Commerce.
Сценарий: Оптимизация видеообзора гаджета для интерактивного поиска
Image Matching Module.Character Recognition Algorithm мог его прочитать.Predetermined item identifier data).known identity). При выборе смартфона появляется оверлей с названием модели, характеристиками и гиперссылкой на страницу покупки в интернет-магазине.Как эта технология связана с Google Lens?
Google Lens является современным воплощением идей, заложенных в этом патенте. Патент описывает конкретную реализацию для видеоконтента (особенно Smart TV), где пользователь приостанавливает видео для анализа кадра. Google Lens использует аналогичные базовые технологии (Image Matching Module, OCR) для анализа изображений с камеры в реальном времени или загруженных фотографий, применяя их в более широком контексте.
Влияет ли этот патент на ранжирование моего сайта в обычном поиске?
Нет, этот патент не описывает алгоритмы ранжирования веб-страниц. Он посвящен механизму идентификации объектов внутри видеоконтента и интерфейсу для предоставления этой информации. Прямого влияния на позиции сайта в традиционной выдаче он не оказывает, но подчеркивает важность работы над распознаваемостью ваших сущностей (продуктов, бренда).
Что такое "первая и вторая визуальные индикации" и в чем их разница?
Патент четко разделяет два типа обратной связи. Первая визуальная индикация показывает статус процесса поиска (например, анимация, означающая "идет поиск", которая сменяется на статичное состояние "поиск завершен"). Вторая визуальная индикация показывает результат идентификации (например, зеленая рамка означает "объект точно известен", а желтая – "есть несколько вариантов").
Что такое "Predetermined Item Identifier Data" и как я могу их использовать?
Это метаданные, встроенные непосредственно в видеопоток, которые сообщают системе, что именно находится в кадре. Это позволяет идентифицировать объекты даже без визуального распознавания. Для Video SEO это критически важный механизм, позволяющий напрямую контролировать распознавание. На практике это может реализовываться через функции платформ, например, YouTube Shopping.
Как я могу оптимизировать свои видео для этой технологии?
Ключевая рекомендация – обеспечить визуальную четкость. Убедитесь, что продукты, логотипы и лица хорошо освещены и находятся в фокусе. Также важно укреплять связь между визуальным образом и сущностью через традиционные методы SEO: использование структурированных данных (Schema.org) на ваших веб-страницах и загрузка качественных изображений в Google Merchant Center.
В чем разница между "Known Identity" и "Plurality of Known Identities"?
Known Identity означает, что система уверена в идентификации объекта (например, распознана конкретная модель часов). Plurality of Known Identities означает, что система нашла несколько похожих вариантов и не может выбрать один (например, распознан бренд, но модель неясна). В этом случае пользователю может быть предложено уточнить выбор.
Как интегрируется реклама в этот механизм?
Патент описывает возможность маркировки элементов в кадре рекламными метками (advertising labels). Это может быть реализовано двумя способами: либо система распознает продукт и автоматически подтягивает рекламу, либо рекламодатель заранее определяет, какие элементы в видео должны быть интерактивными и вести на его сайт. При выборе такого элемента пользователь увидит контент рекламодателя и гиперссылку.
Использует ли система распознавание текста (OCR)?
Да, в патенте явно упоминается использование Character Recognition Algorithm. Система может извлекать текст из кадра (например, название бренда на этикетке или текст на обложке книги) и использовать его как дополнительный сигнал для идентификации объекта.
Что делать, если система неправильно идентифицирует мой продукт в видео?
Патент не описывает механизмы обратной связи для исправления ошибок. Если ваш продукт систематически распознается неправильно, необходимо работать над улучшением его визуальной идентичности: публиковать более качественные и однозначные изображения продукта на официальных ресурсах и в Merchant Center, чтобы обучить Image Matching Module.
Применяется ли эта технология только для Smart TV?
Хотя в патенте часто упоминаются Smart Television Module и Google TV как примеры реализации, описанные методы и системы могут быть применены на любых устройствах, способных воспроизводить видео и поддерживающих интерактивные функции, включая веб-плееры, планшеты и смартфоны.

Мультимедиа
Ссылки

Мультимедиа
Индексация
Семантика и интент

Мультимедиа
Семантика и интент

Мультимедиа
Семантика и интент

Мультимедиа
Персонализация
Поведенческие сигналы

Поведенческие сигналы
Семантика и интент
SERP

Ссылки
Поведенческие сигналы
SERP

Local SEO
Семантика и интент
Поведенческие сигналы

Семантика и интент
Поведенческие сигналы

Поведенческие сигналы
Семантика и интент
Мультимедиа

Семантика и интент
Поведенческие сигналы
Local SEO

Семантика и интент
Индексация
Мультимедиа

Поведенческие сигналы
SERP
Семантика и интент

Local SEO
Поведенческие сигналы
Семантика и интент

Поведенческие сигналы
Мультиязычность
Персонализация
