SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google автоматически генерирует поисковые запросы на основе аудиоконтекста медиа (ТВ, радио, реклама)

PRESENTING MOBILE CONTENT BASED ON PROGRAMMING CONTEXT (Представление мобильного контента на основе контекста программы)
  • US8694533B2
  • Google LLC
  • 2010-05-19
  • 2014-04-08
  • Индексация
  • Мультимедиа
  • Семантика и интент
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google использует технологию для автоматизации поиска на основе медиаконтента, потребляемого пользователем. Система записывает аудиосэмпл с устройства пользователя (например, звук телевизора), идентифицирует контент (шоу или рекламу) с помощью аудиофингерпринтинга и извлекает связанную метаинформацию (субтитры, EPG, текст из видео). На основе этих данных автоматически формируется и выполняется поисковый запрос, предоставляя пользователю релевантные результаты без ручного ввода ключевых слов.

Описание

Какую проблему решает

Патент решает проблему сложности и неудобства ручного ввода поисковых запросов на мобильных устройствах, особенно когда пользователи ищут информацию, связанную с медиаконтентом (ТВ, радио, видео), который они потребляют в данный момент (эффект «второго экрана»). Изобретение автоматизирует процесс, позволяя инициировать релевантный поиск на основе аудиоконтекста без ввода ключевых слов (non-keyword-based search).

Что запатентовано

Запатентована система, которая использует аудиосэмплы, захваченные клиентским устройством, для идентификации медиаконтента в реальном времени. Система сопоставляет аудио с базой данных предварительно проиндексированного медиа (включая трансляции и рекламу). После идентификации контента система извлекает связанную с ним богатую метаинформацию (например, субтитры, данные EPG, распознанный текст из видеоряда) и автоматически генерирует поисковый запрос на основе этой контекстуальной информации.

Как это работает

Система работает по следующей схеме:

  • Индексирование медиа (бэкенд): Серверы непрерывно захватывают медиаисточники (например, ТВ-каналы), создают их аудиоотпечатки (audio fingerprints) и извлекают метаданные (субтитры, EPG, анализ видео).
  • Захват аудио (фронтенд): Клиентское устройство записывает окружающий аудиосигнал и генерирует его отпечаток.
  • Сопоставление: Отпечаток пользователя сравнивается с базой данных индексированного медиа.
  • Извлечение метаданных: При совпадении система идентифицирует контент и извлекает связанные с ним метаданные.
  • Генерация запроса: Специальный модуль (Search Query Builder) автоматически конструирует текстовый поисковый запрос, используя извлеченные метаданные.
  • Выполнение поиска: Запрос выполняется стандартной поисковой системой, и результаты возвращаются пользователю.

Актуальность для SEO

Высокая. Технологии распознавания медиаконтента (такие как Google Assistant's Now Playing) широко распространены. Этот патент описывает инфраструктуру, позволяющую не просто идентифицировать контент, но и автоматически генерировать сложные контекстуальные поисковые запросы на его основе. Это критически важно для понимания того, как Google связывает потребление медиа (особенно рекламы) с последующей поисковой активностью.

Важность для SEO

Патент имеет высокое стратегическое значение (8/10). Он раскрывает механизм генерации запросов, который полностью обходит традиционный ввод ключевых слов. Это влияет на SEO, поскольку показывает, как Google использует контекст медиа для формирования поискового интента. Особое внимание в патенте уделяется анализу рекламы (включая OCR текста), подчеркивая важность оптимизации онлайн-активов под запросы, инициированные офлайн-кампаниями. SEO-специалистам необходимо понимать, какие метаданные извлекаются из медиа для формирования этих автоматических запросов.

Детальный разбор

Термины и определения

Ad Detection Server (Сервер обнаружения рекламы)
Компонент системы для идентификации рекламных роликов в медиапотоке. Может использовать сравнение отпечатков с базой известных роликов или алгоритмы выявления повторяющегося контента (repetition pattern algorithm).
Audio Fingerprint (Аудиоотпечаток)
Уникальное цифровое представление аудиосигнала, используемое для идентификации схожих или идентичных аудиосэмплов. Может генерироваться с помощью алгоритма типа "forgiving hash".
Capture Server (Сервер захвата)
Сервер, который непрерывно записывает контент из медиаисточников (Media Sources), таких как ТВ или радио, и обрабатывает его для извлечения аудиоотпечатков и метаданных.
Client Device (Клиентское устройство)
Устройство пользователя (смартфон, планшет, ноутбук, ТВ-приставка), которое записывает аудиосэмпл для инициации поиска.
EPG Metadata (Метаданные EPG)
Данные электронного телегида (Electronic Programming Guide), извлеченные из медиапотока. Включают информацию о расписании, названиях программ, описаниях.
Image Analysis Server (Сервер анализа изображений)
Компонент, анализирующий стоп-кадры из видеопотока для генерации Video-Based Keyword Metadata. Использует OCR и методы распознавания объектов/лиц.
Match Server (Сервер сопоставления)
Компонент, который сравнивает audio fingerprint, полученный от клиентского устройства, с базой данных отпечатков захваченного медиаконтента.
Search Query Builder Server (Сервер построения поисковых запросов)
Сервер, который автоматически генерирует текстовый поисковый запрос на основе метаданных, связанных с идентифицированным контентом.
Service Information Server (Сервер служебной информации)
Хранилище метаданных (EPG, субтитры, видео-ключевые слова) и специфичной информации, связанной с захваченным медиаконтентом, индексированных по Content Identifier.
Subtitle Metadata (Метаданные субтитров)
Текстовая информация, извлеченная из потока субтитров. Если субтитры графические (bitmap), используется OCR. При отсутствии субтитров может использоваться преобразование речи в текст (voice-to-text).
Video-Based Keyword Metadata (Ключевые слова на основе видео)
Метаданные, сгенерированные путем анализа видеопотока. Включают текст, логотипы, распознанные лица или объекты, извлеченные с помощью Image Analysis Server.

Ключевые утверждения (Анализ Claims)

Анализ Claims показывает сильный фокус изобретения на идентификации рекламы и генерации поисковых запросов на её основе.

Claim 1 (Независимый пункт): Описывает основной процесс обработки аудиоданных для идентификации рекламы и генерации запроса.

  1. Получение аудиоданных от клиентского устройства.
  2. Идентификация специфического контента из захваченного медиа. Захват медиа происходит на бэкенде одновременно (concurrently) с получением данных от клиента для идентификации в почти реальном времени.
  3. Ключевое условие: идентифицированный контент включает по крайней мере одну известную рекламу (known advertisement).
  4. Сопоставление части контента с этой известной рекламой.
  5. Получение дополнительной информации, связанной с этой рекламой.
  6. Генерация поискового запроса на основе этой дополнительной информации.
  7. Возвращение результатов поиска, связанных с известной рекламой.

Claim 8 и 9 (Зависимые): Детализируют инфраструктуру бэкенда.

Система мониторит медиа-источники (например, ТВ-каналы), извлекает аудиопотоки и генерирует audio fingerprints (Claim 8). Параллельно извлекается дополнительная информация, генерируются метаданные (content-related metadata), и все данные связываются уникальным идентификатором контента (unique content identifier) и сохраняются (Claim 9).

Claim 11 и 12 (Зависимые): Описывают методы идентификации и обработки рекламы.

  • Реклама может быть идентифицирована с помощью алгоритма выявления повторов (repetition pattern algorithm) на бэкенде (Claim 11).
  • После идентификации система обрабатывает видеочасть рекламы для генерации ключевых слов для поискового запроса. Методы включают анализ изображений (image analysis process) для генерации video-based keywords и оптическое распознавание символов (OCR) для получения специфичной информации о рекламе (Claim 12).

Claim 27 (Независимый пункт): Описывает процесс с точки зрения клиентского устройства, фокусируясь на рекламе.

Устройство захватывает аудиосэмпл рекламы и отправляет его в систему. Система идентифицирует рекламу, выбирает поисковые термины на основе дополнительной информации, полученной путем анализа аудио-видео презентации рекламы (включая анализ изображений и OCR), и возвращает результаты поиска.

Где и как применяется

Изобретение связывает процессы индексирования медиаконтента с пониманием контекста пользователя и генерацией поисковых запросов.

INDEXING – Индексирование и извлечение признаков (Бэкенд)
На этом этапе происходит основная работа бэкенд-системы. Capture Servers постоянно записывают медиаисточники. Происходит глубокое извлечение признаков (Feature Extraction):

  • Генерация Audio Fingerprints.
  • Извлечение и обработка Subtitle Metadata (включая OCR и Voice-to-Text).
  • Извлечение EPG Metadata.
  • Анализ видеопотока (Image Analysis, OCR) для генерации Video-Based Keyword Metadata.
  • Идентификация рекламы с помощью Ad Detection Server.

Результат: Пополняемая база данных аудиоотпечатков и связанных с ними метаданных на Service Information Server.

QUNDERSTANDING – Понимание Запросов (и Генерация Запросов)
Это ключевой этап применения патента. Когда пользователь отправляет аудиосэмпл:

  • Система интерпретирует аудиосэмпл как контекст.
  • Match Server идентифицирует контент.
  • Search Query Builder Server извлекает все связанные метаданные.
  • Система генерирует структурированный текстовый поисковый запрос на основе этих метаданных. Это автоматизированное формирование интента пользователя.

RANKING – Ранжирование
Сгенерированный запрос поступает на стандартный Search Server, который выполняет ранжирование по своим алгоритмам. Патент не описывает изменений на этом этапе.

Входные данные (от пользователя):

  • Аудиосэмпл или Audio Fingerprint.
  • Опционально: информация об устройстве, местоположении, профиле пользователя.

Входные данные (бэкенд):

  • Потоки медиаисточников (ТВ, радио и т.д.).

Выходные данные:

  • Набор результатов поиска, релевантных идентифицированному контенту.

На что влияет

  • Специфические запросы: Влияет на генерацию информационных и коммерческих запросов, связанных с потребляемым медиаконтентом (запросы по сущностям, упомянутым в медиа).
  • Конкретные типы контента: Транслируемые медиа (ТВ, радио), потоковое видео и записанные медиа (DVD, Blu-ray).
  • Реклама: Патент имеет критическое значение для рекламы. Он описывает механизм, позволяющий мгновенно связать офлайн-рекламу с онлайн-поиском, используя данные, извлеченные непосредственно из рекламного ролика (OCR, анализ изображений).

Когда применяется

  • Триггеры активации: Активируется пользователем через Capture Application на клиентском устройстве во время потребления медиаконтента.
  • Режимы работы: Может работать в режиме разового запроса или в непрерывном режиме (continuous mode), когда устройство периодически отправляет аудиосэмплы и постоянно обновляет результаты поиска по мере изменения контента (например, при смене новостных сюжетов или рекламных блоков).

Пошаговый алгоритм

Процесс А: Обработка запроса пользователя (Фронтенд)

  1. Захват аудио: Пользователь запускает приложение, которое записывает аудиосэмпл.
  2. Генерация отпечатка: Клиентское устройство или Front-End Server генерирует audio fingerprint из сэмпла.
  3. Передача и Сопоставление: Отпечаток передается на Match Server и сравнивается с базой данных захваченного медиа.
  4. Идентификация контента: При нахождении совпадения система получает уникальный идентификатор контента (content identifier). (При неудаче система может запросить ручной ввод канала).
  5. Извлечение метаданных: Используя идентификатор контента, Search Query Builder Server запрашивает связанные метаданные (EPG, субтитры, видео-ключевые слова) у Service Information Server.
  6. Генерация поискового запроса: Search Query Builder Server автоматически формирует текстовый поисковый запрос на основе полученных метаданных.
  7. Выполнение поиска и Возврат результатов: Запрос передается в Search Engine, результаты возвращаются на клиентское устройство.

Процесс Б: Захват и индексирование медиа (Бэкенд)

  1. Захват контента: Capture Server постоянно записывает контент из медиаисточников.
  2. Извлечение потоков: Из медиапотока извлекаются аудио, видео, субтитры и EPG данные.
  3. Генерация аудиоотпечатков: Из аудиопотока генерируются audio fingerprints и сохраняются с уникальным идентификатором.
  4. Обработка метаданных:
    • Субтитры обрабатываются (OCR или Voice-to-Text).
    • EPG данные парсятся.
    • Видеопоток анализируется (Image Analysis, OCR на Image Analysis Server) для извлечения ключевых слов.
  5. Обнаружение рекламы: Ad Detection Server анализирует поток для идентификации рекламы (сравнение отпечатков или анализ повторов) и извлекает специфичные для неё данные (например, через OCR).
  6. Сохранение метаданных: Все извлеченные метаданные сохраняются на Service Information Server и ассоциируются с уникальным идентификатором контента.

Какие данные и как использует

Данные на входе

Система использует разнообразные данные, извлеченные непосредственно из медиапотоков, а также данные от пользователя.

  • Аудио данные: Являются основой для идентификации контента через audio fingerprinting. Используются аудиосэмплы от пользователя и аудиопотоки из медиаисточников.
  • Видео данные (Мультимедиа факторы): Видеопотоки из медиаисточников. Анализируются для генерации Video-Based Keyword Metadata путем анализа стоп-кадров (распознавание текста, логотипов, объектов, лиц).
  • Контентные/Структурные факторы (Медиа):
    • Субтитры: Извлекаются для получения контекста диалогов.
    • EPG данные: Используются для получения информации о программе (название, описание, жанр).
  • Пользовательские и Географические факторы: Местоположение клиентского устройства (GPS, IP) может использоваться для фильтрации потенциальных медиаисточников (например, ограничение поиска локальными ТВ-каналами). Также могут использоваться данные профиля пользователя для персонализации результатов.

Какие метрики используются и как они считаются

Патент не детализирует метрики ранжирования, но описывает ключевые процессы анализа данных:

  • Audio Fingerprint Matching Score: Метрика схожести аудиоотпечатков. Match Server может использовать уровни уверенности (confidence levels) для определения наилучшего совпадения.
  • Оптическое распознавание символов (OCR): Применяется для извлечения текста из графических субтитров и из видеокадров (например, текст в рекламе или титры).
  • Image Analysis (Анализ изображений): Применяется к видеокадрам на Image Analysis Server для распознавания логотипов, объектов, лиц.
  • Voice-to-Text (Преобразование речи в текст): Используется для генерации текстовых данных, если субтитры недоступны.
  • Repetition Pattern Algorithm (Алгоритм выявления повторов): Алгоритм, используемый Ad Detection Server для идентификации новых рекламных роликов в медиапотоке на основе шаблонов повторения.

Выводы

  1. Автоматическая генерация запросов из контекста: Патент описывает мощный механизм, позволяющий Google понимать контекст потребляемого медиа и переводить его в конкретные поисковые запросы без участия пользователя. Это меняет подход к пониманию источников поискового трафика.
  2. Медиаконтент как источник интента: Система рассматривает медиапоток как богатый источник данных для определения намерений пользователя. Извлекаются не только аудио, но и субтитры, EPG и визуальная информация (анализ видео).
  3. Глубокая интеграция рекламы и поиска: Обнаружение и обработка рекламы (Ad Detection) является ключевым компонентом, что подчеркивается в Claims. Система специально разработана для того, чтобы сделать офлайн-рекламу интерактивной, автоматически генерируя коммерческие запросы на основе распознанного текста (OCR) и изображений из рекламного ролика.
  4. Критическая роль метаданных и визуальной информации в медиа: Для формирования точного запроса система полагается на качество извлекаемых данных. Четкость аудио, наличие субтитров и читаемость текста в видеоряде (для OCR и генерации Video-Based Keyword Metadata) напрямую влияют на результат.
  5. Система генерации, а не ранжирования: Патент не вносит изменений в алгоритмы ранжирования, но он критически важен для понимания того, как Google анализирует и структурирует мультимедийный контент для генерации запросов.

Практика

Best practices (это мы делаем)

  • Оптимизация видео и рекламы для распознавания (OCR): При создании видеоконтента (особенно рекламного) убедитесь, что ключевая информация (название бренда, продукта, УТП, URL) представлена четко и читаемо. Система использует OCR для извлечения Video-Based Keyword Metadata и включения этой информации в автоматический поисковый запрос.
  • Использование и оптимизация субтитров: Предоставляйте точные субтитры для видеоконтента. Система извлекает Subtitle Metadata для понимания контекста. Оптимизируйте текст субтитров под ключевые слова, связанные с контентом. Если субтитров нет, система использует Voice-to-Text, поэтому чистота аудиодорожки также важна.
  • Подготовка целевых страниц под медиа-трафик: Анализируйте, какие запросы могут быть сгенерированы на основе вашего медиаконтента или рекламы (например, запросы, включающие текст из вашего ролика). Убедитесь, что ваши онлайн-ресурсы оптимизированы для ранжирования по этим запросам.
  • Интеграция офлайн и онлайн кампаний: Рассматривайте офлайн-рекламу как триггер для онлайн-поиска (эффект «второго экрана»). Согласовывайте ключевые сообщения в рекламе с SEO-стратегией для соответствующих продуктов или услуг.

Worst practices (это делать не надо)

  • Использование нечитаемого или мелкого текста в видео: Размещение важной информации текстом, который сложно распознать системами OCR, снизит эффективность генерации релевантных поисковых запросов.
  • Игнорирование метаданных при публикации контента: Публикация видео без субтитров или с неточными метаданными (аналог EPG для онлайн-видео) ухудшает способность системы понять контекст и сгенерировать качественный запрос.
  • Создание медиаконтента в отрыве от SEO: Разработка рекламных кампаний без учета того, как пользователи (и автоматические системы) будут искать связанную информацию в интернете.

Стратегическое значение

Этот патент подтверждает стратегию Google по захвату и пониманию информации из всех доступных источников, включая традиционные медиа. Для SEO это означает, что источники трафика становятся более диверсифицированными, а генерация запросов — более автоматизированной и контекстуальной. Это стирает грань между офлайн-маркетингом и SEO, требуя интегрированного подхода к управлению информацией во всех каналах. Понимание механизмов анализа мультимедиа (OCR, субтитры) становится обязательным навыком.

Практические примеры

Сценарий: Оптимизация телевизионной рекламы автомобиля

  1. Рекламный ролик (Медиаисточник): Показывается реклама нового автомобиля "Brand Model X 2025". В ролике диктор рассказывает о преимуществах, а на экране крупно показан логотип и текст "Специальное предложение 0% кредит".
  2. Действие пользователя: Пользователь активирует приложение для распознавания аудио на своем смартфоне.
  3. Работа системы (Идентификация): Система идентифицирует аудио как рекламу (known advertisement) с помощью Ad Detection Server.
  4. Работа системы (Извлечение метаданных):
    • Voice-to-Text (или субтитры) распознает речь диктора.
    • Image Analysis Server распознает логотип "Brand".
    • OCR распознает текст на экране: "Model X 2025" и "Специальное предложение 0% кредит".
  5. Генерация запроса: Search Query Builder автоматически генерирует запрос, например: [Brand Model X 2025 специальное предложение 0% кредит].
  6. Результат для SEO: Если SEO-команда автопроизводителя оптимизировала официальный сайт и лендинг акции под этот конкретный запрос, их ресурс займет первую позицию в выдаче, которую пользователь увидит без ручного ввода.

Вопросы и ответы

Как этот патент влияет на традиционное исследование ключевых слов?

Он расширяет понимание источников запросов. Теперь нужно учитывать не только то, что пользователи вводят вручную, но и то, какие запросы система может сгенерировать автоматически на основе медиаконтента. Это требует анализа метаданных и визуального контента медиа (текст на экране, субтитры) для прогнозирования потенциальных запросов, которые могут включать уникальные комбинации сущностей.

Какие данные система извлекает из видео для генерации запроса?

Система анализирует видеопоток с помощью Image Analysis Server для генерации Video-Based Keyword Metadata. Извлекаются данные путем распознавания текста и логотипов (с помощью OCR), а также потенциально распознавания лиц, объектов и локаций. Вся эта информация используется для построения контекстуального поискового запроса.

Насколько важны субтитры для этого механизма?

Субтитры критически важны. Система напрямую извлекает Subtitle Metadata для понимания контекста происходящего. Если субтитры текстовые, они используются напрямую. Если графические, используется OCR. Если субтитров нет, система может применять Voice-to-Text. Наличие точных субтитров значительно повышает качество сгенерированного запроса.

Патент много говорит о рекламе. В чем особенность её обработки?

Реклама обрабатывается специализированным Ad Detection Server. Система идентифицирует известные ролики и может выявлять новые с помощью анализа повторов (repetition pattern algorithm). Для рекламы особенно активно используется OCR и анализ изображений для извлечения коммерческой информации (названий продуктов, условий акций), которая становится основой для генерации поискового запроса.

Как SEO-специалист может оптимизировать контент под этот механизм?

Ключевая оптимизация происходит на этапе создания медиаконтента. Необходимо обеспечить чистоту аудио для точного фингерпринтинга, предоставлять точные субтитры, и, самое главное, размещать ключевую информацию (бренды, продукты, URL) в видеоряде четко и читаемо для систем OCR. На стороне сайта необходимо подготовить страницы, релевантные этим автоматически сгенерированным запросам.

Применяется ли этот механизм только к живому эфиру (Live TV)?

Нет. Хотя система оптимизирована для работы в реальном времени с трансляциями, она также может обрабатывать записанный контент (time-shifted content), DVD, Blu-ray и потоковое интернет-медиа. Это зависит от того, как долго бэкенд-система хранит индексы захваченного медиа или индексирует ли она статический контент.

Что такое "Непрерывный режим" (Continuous Mode), упомянутый в патенте?

Это режим, при котором клиентское устройство не делает разовый запрос, а непрерывно или периодически отправляет аудиосэмплы. Система постоянно идентифицирует контент и обновляет результаты поиска на экране устройства по мере изменения контента (например, при смене новостного сюжета или начале рекламного блока), обеспечивая постоянный поток релевантной информации.

Использует ли система данные о местоположении пользователя?

Да, патент упоминает возможность использования информации о местоположении клиентского устройства. Это позволяет системе сузить круг поиска, например, сравнивая аудио только с локальными телеканалами или радиостанциями (Media Sources), что повышает эффективность и точность идентификации.

Влияет ли этот патент на ранжирование результатов поиска?

Патент не описывает изменения в алгоритмах ранжирования. Он описывает механизм генерации запроса. Сгенерированный запрос затем обрабатывается стандартной поисковой системой. Однако, поскольку сгенерированный запрос является высококонтекстуальным, он может приводить к выдаче, отличной от той, которую пользователь получил бы при ручном вводе более общего запроса.

Какова роль EPG Metadata в этом процессе?

EPG Metadata (данные электронного телегида) предоставляют базовую информацию о транслируемом контенте — название программы, описание, жанр. Когда система идентифицирует контент, эти данные извлекаются и используются Search Query Builder для добавления контекста к поисковому запросу, например, включения названия шоу или имен актеров.

Похожие патенты

Как Google использует всплески поисковых запросов для идентификации трендовых «моментов» в ТВ-трансляциях и прямых эфирах
Google анализирует всплески поисковых запросов в реальном времени и сопоставляет их с транслируемым медиаконтентом (например, телешоу или спортивными событиями). Сопоставляя термины запроса с метаданными (субтитрами) или анализируя аудио-отпечатки с устройств пользователей, Google определяет точный «момент», вызвавший интерес, и упаковывает его в автоматический «Гид по моментам».
  • US20170214954A1
  • 2017-07-27
  • Поведенческие сигналы

  • Мультимедиа

  • Семантика и интент

Как Google использует контент, который вы смотрите (например, на ТВ), для автоматического переписывания и персонализации ваших поисковых запросов
Google может анализировать контент (фильмы, шоу, аудио), который пользователь потребляет на одном устройстве (например, ТВ), и использовать эту информацию как контекст для уточнения последующих поисковых запросов. Система распознает аудиовизуальный контекст и автоматически дополняет неоднозначные запросы пользователя, чтобы предоставить более релевантные результаты, в том числе на связанных устройствах (например, смартфоне).
  • US9244977B2
  • 2016-01-26
  • Персонализация

  • Семантика и интент

  • Поведенческие сигналы

Как Google создает видео-нарезки (Composite Videos) на лету, используя текстовый запрос и анализ аудиодорожек
Google может анализировать аудиодорожки (транскрипты) видео для идентификации конкретных сегментов, где произносятся слова из запроса пользователя. Система автоматически объединяет эти сегменты из разных видео в одно новое сводное видео (Composite Video). Для выбора сегментов используются метрики релевантности, популярности и свежести исходного контента.
  • US9672280B2
  • 2017-06-06
  • Мультимедиа

  • Индексация

  • Семантика и интент

Как Google использует смартфоны в качестве голосового интерфейса для поиска медиаконтента на телевизорах
Патент описывает механизм, позволяющий пользователю вводить голосовой запрос на портативном устройстве (смартфоне). Аудиозапись отправляется на удаленный сервер для преобразования в текст (Speech-to-Text), после чего текст автоматически передается на телевизионную систему. Телевизор использует этот текст для поиска медиаконтента (фильмов, музыки, шоу) и отображает результаты.
  • US8522283B2
  • 2013-08-27
  • Мультимедиа

Как Google идентифицирует контент на одном устройстве (например, ТВ) и проактивно отправляет свежие и трендовые результаты поиска на другое (например, смартфон)
Google использует технологию "отпечатков контента" для идентификации того, что пользователь смотрит или слушает на первом устройстве. Система автоматически генерирует связанный поисковый запрос и отправляет на второе устройство "динамические текущие результаты". Приоритет отдается наиболее свежей, часто обновляемой и трендовой информации, создавая новый канал для дистрибуции контента.
  • US9875242B2
  • 2018-01-23
  • Свежесть контента

  • Мультимедиа

Популярные патенты

Как Google использует историю физических перемещений пользователя для фильтрации и персонализации результатов поиска
Google может собирать и хранить историю физических перемещений пользователя (Location History). Патент описывает интерфейс, позволяющий пользователю осознанно включать свои прошлые местоположения (например, «места, где я был на прошлой неделе») в качестве фильтра для нового поискового запроса, чтобы сделать результаты более релевантными личному опыту.
  • US8874594B2
  • 2014-10-28
  • Персонализация

  • Поведенческие сигналы

  • Local SEO

Как Google определяет географическую релевантность веб-страницы, анализируя физическое местоположение её посетителей
Google анализирует физическое местоположение (используя GPS, IP и т.д.) пользователей, которые взаимодействуют с веб-страницей (например, совершают клик и долго её изучают). Агрегируя эти данные, система определяет географическую релевантность страницы («Центр») и область её популярности («Дисперсию»), даже если на самой странице нет адреса. Эта информация используется для повышения позиций страницы в поиске для пользователей, находящихся в этой области.
  • US9552430B1
  • 2017-01-24
  • Local SEO

  • Поведенческие сигналы

Как Google использует персонализированный PageRank ссылающихся страниц для переоценки значимости анкорного текста
Google может персонализировать поисковую выдачу, изменяя вес анкорного текста ссылок. Вес ссылки зависит не от глобального PageRank ссылающейся страницы, а от её "персонализированного PageRank", рассчитанного на основе предпочтений пользователя (например, любимых сайтов или тематик). Это позволяет повышать в выдаче документы, на которые ссылаются авторитетные для конкретного пользователя источники.
  • US7260573B1
  • 2007-08-21
  • Персонализация

  • Ссылки

Как Google использует данные о поведении пользователей по похожим запросам для ранжирования новых или редких запросов
Google использует механизм для улучшения ранжирования запросов, по которым недостаточно данных о поведении пользователей (например, кликов). Система находит исторические запросы, семантически похожие на исходный, и «заимствует» их поведенческие данные. Степень сходства рассчитывается с учетом важности терминов, синонимов и порядка слов. Эти заимствованные данные используются для корректировки рейтинга документов по исходному запросу.
  • US9009146B1
  • 2015-04-14
  • Поведенческие сигналы

  • Семантика и интент

  • SERP

Как Google ранжирует комментарии и UGC, используя объективное качество и субъективную персонализацию
Google использует двухфакторную модель для ранжирования пользовательского контента (комментариев, отзывов). Система вычисляет объективную оценку качества (репутация автора, грамотность, длина, рейтинги) и субъективную оценку персонализации (является ли автор другом или предпочтительным автором, соответствует ли контент интересам и истории поиска пользователя). Итоговый рейтинг объединяет обе оценки для показа наиболее релевантного и качественного UGC.
  • US8321463B2
  • 2012-11-27
  • Персонализация

  • EEAT и качество

  • Поведенческие сигналы

Как Google извлекает, обрабатывает и индексирует анкорный текст, контекст и атрибуты входящих ссылок для ранжирования целевых страниц
Фундаментальный патент, описывающий инфраструктуру Google для обработки ссылок. Система извлекает анкорный текст, окружающий контекст и атрибуты форматирования (аннотации) из исходных страниц и инвертирует эти данные в структуру "Sorted Anchor Map". Это позволяет индексировать целевую страницу по тексту ссылок, указывающих на нее, используя эту внешнюю информацию как сигнал релевантности.
  • US7308643B1
  • 2007-12-11
  • Ссылки

  • Индексация

  • Техническое SEO

Как Google определяет, действительно ли новость посвящена сущности, и строит хронологию событий
Google использует систему для определения релевантности новостей конкретным объектам (сущностям, событиям, темам). Система анализирует кластеры новостных статей (коллекции), оценивая общий интерес к объекту (поисковые запросы, социальные сети) и значимость объекта внутри коллекции (упоминания в заголовках, центральность в тексте). Ключевой механизм — оценка уместности событий: система проверяет, соответствует ли событие типу объекта (например, «новый метод лечения» для болезни), чтобы отфильтровать мимолетные упоминания и создать точную хронологию новостей.
  • US9881077B1
  • 2018-01-30
  • Семантика и интент

  • Поведенческие сигналы

Как Google использует историю браузера, закладки и поведение пользователей для персонализации результатов поиска в e-commerce
Система отслеживает поведение пользователей (клики, время на сайте, покупки) и их сохраненные закладки (content pointers) в сетевой среде. На основе этих данных создается персональная модель релевантности и иерархия предпочтений. Эта модель используется для дополнения запросов, переранжирования результатов поиска и предоставления рекомендаций, обеспечивая персонализированный опыт в e-commerce.
  • US7089237B2
  • 2006-08-08
  • Поведенческие сигналы

  • Персонализация

  • SERP

Как Google использует историю чтения новостных сайтов для определения географических интересов пользователя и персонализации выдачи
Google может определять географические интересы пользователя, анализируя местоположение издателей новостных сайтов, которые он посещал. Эта информация (Geo Signal) используется для корректировки ранжирования будущих поисковых запросов, повышая результаты, релевантные этим интересам, даже если пользователь физически находится в другом месте.
  • US20130246381A1
  • 2013-09-19
  • Персонализация

  • Поведенческие сигналы

  • SERP

Как Google использует длительность кликов, Pogo-Sticking и уточнение запросов для оценки качества поиска (Click Profiles)
Google анализирует поведение пользователей после клика для оценки удовлетворенности. Система создает «Профили взаимодействия» (Click Profiles), учитывая длительность клика (Dwell Time), возврат к выдаче (Pogo-Sticking) и последующее уточнение запроса. Эти данные используются для сравнения эффективности алгоритмов ранжирования и выявления спама или кликбейта.
  • US9223868B2
  • 2015-12-29
  • Поведенческие сигналы

  • SERP

  • Антиспам

seohardcore