
Google использует технологию для понимания запросов о медиаконтенте, который воспроизводится в данный момент (например, "Кто этот актер?"). Система идентифицирует программу и точный момент с помощью аудио/видео отпечатков, определяет, какие сущности (актеры, объекты) сейчас на экране, и использует эту информацию как контекст для точного ответа на запрос пользователя.
Патент решает проблему неоднозначности и сложности поиска информации о медиаконтенте (фильмах, ТВ-программах), который пользователь просматривает в реальном времени. Он устраняет необходимость для пользователя вручную идентифицировать название программы или актеров, чтобы задать точный вопрос. Система автоматизирует определение контекста, позволяя отвечать на запросы типа "Кто этот актер на экране?" путем анализа того, что сейчас воспроизводится.
Запатентована система контекстного поиска, которая использует информацию о медиа, воспроизводимом в данный момент, для генерации релевантных результатов. Система идентифицирует просматриваемую программу и точный момент времени в ней, извлекает связанные с этим моментом сущности (называемые Keywords) и использует их для уточнения и ограничения (constraints) запроса пользователя.
Механизм работает следующим образом:
time-sensitive query).Audio Fingerprinting) система точно определяет программу и текущий временной код (portion of the program).Keywords (сущности), связанные именно с этим временным кодом.Question Term). Если пользователь спрашивает "Кто?", система фильтрует извлеченные сущности, оставляя только тип "Человек".Высокая. Патент описывает базовые технологии для функций, активно используемых в современных системах, таких как Google Assistant, Google Lens и сервисах распознавания медиа. Мультимодальный поиск и использование контекста окружающей среды (Ambient Computing) являются ключевыми направлениями развития поиска.
Влияние на традиционное веб-SEO является косвенным (5/10). Патент не описывает алгоритмы ранжирования основного веб-индекса. Однако он имеет высокое стратегическое значение для понимания возможностей Google в анализе мультимедийного контента (распознавание лиц, объектов, аудио) и извлечении сущностей. Это критически важно для оптимизации видеоконтента и стратегий, связанных с Knowledge Graph и голосовым поиском.
Keywords и ассоциации их с конкретными временными отрезками программы. Использует Recognition Module.Keywords в медиапотоке.Claim 1 (Независимый пункт): Описывает основной метод генерации результатов поиска с учетом контекста текущего медиа.
Question Term.Time-sensitive query, относящимся к программе, воспроизводимой в данный момент. Определение основано на терминах запроса, контекстной информации и приложении, через которое получен запрос.Media Data воспроизводимой программы.Portion of the program (временной сегмент), которая воспроизводилась в момент получения запроса, используя захваченные Media Data.Keywords (сущностей), связанных именно с этим временным сегментом.Entity Type (например, Человек) соответствует Question Term в запросе (например, "Кто").Claim 2, 3, 4 (Зависимые): Детализируют механизм идентификации контента и временного отрезка.
Система использует Audio Fingerprinting. Захваченные аудиоданные сравниваются с базой данных отпечатков. Это позволяет идентифицировать программу (Claim 2) и точный временной отрезок внутри программы (Claim 3), так как отпечатки в базе привязаны к конкретным таймстампам. Контекстуально релевантные ключевые слова определяются как те, что ассоциированы с этим идентифицированным временным отрезком (Claim 4).
Claim 6 (Зависимый): Уточняет механизм определения контекстуальной релевантности.
Определение того, что ключевые слова контекстуально релевантны, включает определение того, что они относятся к типу, отвечающему на часть запроса, с использованием обработки естественного языка (natural language processing).
Изобретение требует значительной предварительной обработки данных на этапе индексирования и сложной логики на этапах понимания запроса и поиска.
INDEXING – Индексирование и извлечение признаков (Офлайн-процессы)
Это критически важный этап для работы системы. Здесь происходит подготовка данных:
Audio/Video Fingerprints для программ с привязкой к таймстампам.Annotation Module и Recognition Module. Применяются технологии Facial Recognition, Image Recognition, OCR для идентификации актеров, объектов, локаций.Keywords) сохраняются в Keyword Database с указанием типа сущности и таймстампов, когда они появляются в программе.QUNDERSTANDING – Понимание Запросов (Онлайн-процессы)
В реальном времени система обрабатывает запрос:
time-sensitive и относится ли он к текущему медиа.Question Term и типа искомой информации.Media Data (аудио/видео) из окружения пользователя.RANKING / Specialized Retrieval (Онлайн-процессы)
Это не традиционное веб-ранжирование, а специализированный поиск с использованием контекста:
Fingerprinting для определения программы и таймстампа.Keyword Database для данного таймстампа и отбор Contextually Relevant Keywords путем сопоставления типа сущности с интентом запроса.time-sensitive и направлен на медиа, которое воспроизводится в данный момент.Процесс А: Офлайн-подготовка данных (Индексирование)
Audio/Video Fingerprints для всего контента с привязкой к таймстампам.Recognition Module анализирует видеоряд (используя Facial Recognition, Image Recognition, OCR) и аудио/субтитры для идентификации сущностей.Annotation Module извлекает сущности (Keywords), определяет их тип (Человек, Локация и т.д.).Keyword Database с привязкой к программе, таймстампам и типу сущности.Процесс Б: Обработка запроса в реальном времени
Question Term.time-sensitive и связан ли с текущим медиа.time-sensitive, устройство записывает фрагмент аудио/видео.Portion of the program).Keyword Database для получения всех сущностей, соответствующих этому таймстампу.Question Term запроса. Это Contextually Relevant Keywords.Патент описывает использование следующих типов данных:
Audio Data) и видеоданные (Video Data).Audio Fingerprints или Video Fingerprints, сгенерированные из захваченных данных.Electronic Program Guide Data) или метаданные программы.Патент не описывает метрики ранжирования, но описывает методы анализа и идентификации:
Audio/Video Fingerprinting: Сравнение отпечатков с базой данных для идентификации программы и таймстампа.time-sensitive.Question Term и интента запроса.Entity type.Facial Recognition: Распознавание лиц для идентификации людей.Image Recognition: Распознавание образов для идентификации объектов, локаций, брендов.Optical Character Recognition (OCR): Извлечение текста из видеоряда.time-coding). Это ключевой аспект изобретения.Fingerprinting, избавляя пользователя от ручного ввода.Knowledge Graph.Хотя патент не влияет напрямую на веб-ранжирование, он дает важные стратегические инсайты, особенно для медиаиздателей и специалистов по видео-SEO.
Knowledge Graph. Это повышает вероятность того, что Recognition Module Google корректно их идентифицирует и включит в свою базу данных Keywords.Clip), чтобы явно связать контент с конкретными временными кодами.Fingerprinting) и работу систем распознавания (например, распознавание лиц актеров или OCR текста в кадре).Патент подтверждает стратегию Google по развитию амбиентных вычислений (Ambient Computing) и глубокому пониманию контекста пользователя. Он также подчеркивает важность глубокого анализа мультимедийного контента и извлечения сущностей. В долгосрочной перспективе это означает, что любой контент (текст, видео, аудио) рассматривается Google как источник структурированных данных о сущностях, а не просто как медиафайл.
Сценарий: Оптимизация контента сайта о кино (например, аналога IMDb) для использования в контекстном поиске
Задача: Увеличить вероятность использования информации с сайта в качестве источника ответа на запрос "Кто этот актер на экране?".
sameAs).Knowledge Graph. Когда система контекстного поиска идентифицирует актера, она с большей вероятностью использует данные из авторитетного, хорошо структурированного источника для формирования ответа.Влияет ли этот патент на ранжирование моего веб-сайта в Google Поиске?
Напрямую нет. Этот патент описывает специализированную систему поиска, предназначенную для ответа на вопросы о воспроизводимом медиаконтенте (например, на Смарт-ТВ или через Google Assistant). Он не описывает алгоритмы ранжирования веб-страниц в основном индексе Google.
Какое значение этот патент имеет для SEO, если он не о ранжировании?
Он имеет важное стратегическое значение. Патент демонстрирует технические возможности Google по глубокому анализу видео и аудио, извлечению сущностей (людей, объектов, текста) из мультимедиа и пониманию контекста. Это подтверждает важность работы над Entity SEO и оптимизацией видеоконтента.
Что такое Audio Fingerprinting и как он используется здесь?
Audio Fingerprinting (аудио-отпечаток) — это технология создания уникального цифрового идентификатора из аудиосигнала. В этом патенте она используется для того, чтобы по короткому записанному фрагменту звука точно определить, какую программу смотрит пользователь и какой именно момент (таймстамп) сейчас воспроизводится.
Как система узнает, кто именно находится в кадре в данный момент?
Система не делает это в реальном времени. Она полагается на офлайн-анализ, проведенный заранее. Специальный модуль (Annotation Module) предварительно анализирует весь фильм, используя распознавание лиц (Facial Recognition), распознавание образов и OCR, и сохраняет информацию о том, какие сущности (Keywords) появляются в какой момент времени.
Что такое "time-sensitive query" в контексте этого патента?
Это запрос, который относится к тому, что происходит в медиаконтенте прямо сейчас, а не к программе в целом. Например, "Кто этот актер?" (показывая на экран) — это time-sensitive. А "Когда вышел этот фильм?" — нет.
Как система понимает, ищет ли пользователь актера, локацию или объект?
Система использует обработку естественного языка (NLP) для анализа запроса и определения "Вопросительного термина" (Question Term), например, "Кто", "Где" или "Что". Затем она сопоставляет этот термин с типом сущностей (Entity Type), которые присутствуют в кадре в данный момент.
Что подразумевается под "Keywords" (Ключевыми словами) в этом патенте?
В данном патенте Keywords — это не поисковые фразы, а сущности (Entities), связанные с медиаконтентом. Это могут быть имена актеров, названия локаций, бренды, объекты в кадре. Они извлекаются заранее с помощью технологий распознавания или из метаданных.
Что это значит для моего Видео-SEO?
Это подтверждает, что Google обладает инструментами для глубокого понимания содержания видео, включая идентификацию людей и объектов в кадре. Это подчеркивает важность предоставления четких сигналов (метаданные, субтитры, структура видео с таймкодами), помогающих алгоритмам правильно интерпретировать ваш контент.
Могу ли я оптимизировать свой сайт, чтобы он стал источником для таких ответов?
Да, если ваш сайт посвящен медиа-тематике. Предоставление точной, структурированной информации (используя Schema.org) о фильмах, актерах и т.д. повышает ваш авторитет и увеличивает шансы попадания в Knowledge Graph, откуда система, вероятно, берет ответы.
Может ли эта система работать с любым контентом?
Теоретически да, но она зависит от предварительного офлайн-анализа. Система сможет идентифицировать контент и извлечь сущности только в том случае, если этот контент был заранее проиндексирован, для него были созданы Audio Fingerprints и извлечены Keywords с помощью модуля аннотирования.

Персонализация
Семантика и интент
Поведенческие сигналы

Мультимедиа
Семантика и интент
SERP

Семантика и интент
Персонализация
Мультимедиа

Мультимедиа
Семантика и интент
Персонализация

Поведенческие сигналы
Мультимедиа
Семантика и интент

Персонализация
Семантика и интент
Поведенческие сигналы

Персонализация
Поведенческие сигналы
SERP

Ссылки
Индексация
Поведенческие сигналы

Семантика и интент
EEAT и качество

Семантика и интент
Поведенческие сигналы

Техническое SEO
Ссылки

Персонализация
EEAT и качество
Поведенческие сигналы

Ссылки
Семантика и интент
SERP

EEAT и качество
Семантика и интент

Семантика и интент
Поведенческие сигналы
SERP
