SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google реализует интерактивный визуальный поиск объектов и людей внутри видеоконтента

SYSTEMS AND METHODS OF IMAGE SEARCHING (Системы и методы поиска по изображениям)
  • US9596515B2
  • Google LLC
  • 2012-01-04
  • 2017-03-14
  • Мультимедиа
  • Семантика и интент
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google использует систему интерактивного поиска внутри видеоконтента. Пользователь может остановить видео, и система автоматически распознает объекты и людей в кадре. Используя визуальные индикаторы (например, цветные рамки), система показывает статус идентификации (известен, неизвестен, несколько вариантов). При выборе объекта пользователь получает информацию и ссылки в оверлее поверх видео.

Описание

Какую проблему решает

Патент решает задачу предоставления пользователю мгновенной информации об объектах, людях или сценах, которые он видит в видеоконтенте (например, на Smart TV или стриминговых сервисах). Это устраняет разрыв между потреблением медиаконтента и поиском связанной информации, позволяя взаимодействовать с содержимым кадра без необходимости формулировать текстовый запрос вручную.

Что запатентовано

Запатентована система и метод для интерактивного поиска по изображению, извлеченному из видео (стоп-кадр). Система автоматически идентифицирует множество элементов (plurality of items) в кадре одновременно. Ключевой особенностью является использование двухуровневой визуальной индикации: одна для статуса поиска (выполняется/завершен), другая для статуса идентификации, использующая разное оформление (например, цвет) для обозначения уверенности системы (объект известен или есть несколько вариантов).

Как это работает

Система работает в интерактивном режиме:

  • Триггер: Пользователь приостанавливает видеоконтент (pause command) или активирует функцию поиска по изображению.
  • Анализ кадра: Система анализирует текущий кадр и выделяет потенциальные объекты интереса.
  • Параллельный поиск и обратная связь: Система ищет информацию по всем объектам одновременно. Отображается первый визуальный индикатор (статус поиска: выполняется/завершен).
  • Индикация результатов: Отображается второй визуальный индикатор (статус идентификации). Система использует разные цвета для обозначения статусов (например, один цвет для known identity, другой для plurality of known identities).
  • Выбор пользователя и результат: Пользователь выбирает объект, и система отображает информацию о нем (включая гиперссылки) в оверлее (overlay) поверх видео.

Актуальность для SEO

Высокая. Хотя патент подан в 2012 году и ориентирован на устройства типа Smart TV/Google TV, описанные в нем технологии лежат в основе современных систем визуального поиска, таких как Google Lens, и интерактивных функций на видеоплатформах (например, распознавание продуктов на YouTube). Распознавание сущностей внутри медиаконтента является критически важным направлением развития поиска в 2025 году.

Важность для SEO

Патент имеет минимальное влияние на традиционное SEO (ранжирование веб-сайтов). Однако он имеет высокое стратегическое значение для Video SEO и Visual Search Optimization (VSEO). Он демонстрирует, как Google связывает визуальные образы с конкретными сущностями (Knowledge Graph) и интегрирует поиск непосредственно в потребление контента. Это подчеркивает важность оптимизации визуальной идентичности брендов и продуктов для их распознаваемости.

Детальный разбор

Термины и определения

Character Recognition Algorithm (Алгоритм распознавания символов)
Метод (OCR), используемый для извлечения текста из изображения (например, с этикетки продукта в кадре) для последующей идентификации объекта.
Image Matching Module (Модуль сопоставления изображений)
Компонент системы (сервер или API), отвечающий за сравнение выделенных элементов кадра с базой данных известных изображений для их идентификации.
Items (Элементы)
Объекты, человеческие лица, текст, сцены или любые другие распознаваемые части изображения.
Known Identity (Известная идентичность)
Статус элемента, когда система однозначно идентифицировала его.
Overlay (Оверлей)
Слой интерфейса, отображаемый поверх основного видеоконтента, используемый для показа результатов поиска, информации о выбранном элементе и гиперссылок.
Plurality of Known Identities (Множество известных идентичностей)
Статус элемента, когда система нашла несколько потенциальных совпадений (например, похожие модели часов), требующих уточнения пользователя.
Predetermined Item Identifier Data (Предопределенные данные идентификатора элемента)
Метаданные, встроенные непосредственно в видеоконтент (например, продюсером), которые позволяют системе идентифицировать элементы без необходимости визуального распознавания.
Visual Indication (Визуальная индикация)
Графический элемент интерфейса. Патент разделяет First visual indication (индикация статуса поиска: идет/завершен) и Second visual indication (индикация статуса идентификации: известен/неизвестен/множество).

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает основную систему интерактивного поиска в видео.

  1. Система получает видеоконтент.
  2. Получает запрос пользователя на выбор изображения (кадра) из видео.
  3. Определяет множество элементов (plurality of items) в кадре.
  4. Проводит поиск для идентификации этих элементов, одновременно предоставляя первую визуальную индикацию для обозначения статуса поиска (изменение состояния с "поиск идет" на "поиск завершен").
  5. На основе поиска определяет, что первый элемент имеет known identity (известен), а второй элемент имеет plurality of known identities (множество вариантов).
  6. Предоставляет вторую визуальную индикацию для обозначения статуса идентификации путем подсветки элементов. Подсветка первого элемента отличается цветом от подсветки второго элемента, чтобы визуально различить их статусы уверенности.
  7. Получает выбор пользователя одного из элементов.
  8. Извлекает информацию о выбранном элементе.
  9. Предоставляет данные для отображения в оверлее поверх видео, включая гиперссылку для получения дополнительной информации.

Claim 8 (Независимый пункт): Описывает аналогичный метод, но уточняет, что запрос пользователя инициируется командой паузы (pause command).

Claim 2 и 9 (Зависимые): Уточняют, что идентификация может включать выполнение Character Recognition Algorithm (OCR) для определения текста на изображении.

Система может использовать OCR для чтения текста (например, названия бренда на продукте) как часть процесса идентификации объекта.

Claim 3 и 10 (Зависимые): Уточняют, что идентификация может использовать Predetermined Item Identifier Data, встроенные в видеоконтент.

Производители контента могут встраивать метаданные в видеопоток, чтобы помочь системе точно распознать показанные объекты.

Claim 4 и 11 (Зависимые): Указывают на применение системы для рекламы, где изображение содержит рекламу (advertisement) с гиперссылкой на сайт рекламодателя.

Где и как применяется

Изобретение применяется в среде просмотра видео (например, Smart TV, веб-плеер) и затрагивает следующие этапы поиска:

INDEXING – Индексирование и извлечение признаков
Система полагается на предварительно созданные индексы и модели для визуального распознавания. Image Matching Module должен иметь доступ к обширной базе данных изображений и связанных с ними сущностей (Knowledge Graph). Также на этом этапе могут быть встроены или обработаны Predetermined Item Identifier Data.

QUNDERSTANDING – Понимание Запросов
В данном контексте «запрос» является визуальным и интерактивным. Система интерпретирует действия пользователя (пауза видео, выбор объекта) как намерение получить информацию. Автоматическое выделение объектов в кадре является частью понимания визуального контекста.

METASEARCH – Метапоиск и Смешивание
Основное применение патента. Система выполняет поиск информации об идентифицированной сущности (используя визуальный индекс, базу знаний, рекламный сервер) и смешивает результаты с основным видеоконтентом в виде интерактивного слоя (overlay).

Входные данные:

  • Видеоконтент (включая потенциальные встроенные метаданные).
  • Запрос пользователя на активацию поиска (например, пауза).
  • Изображение (стоп-кадр).
  • Выбор пользователем конкретного элемента.

Выходные данные:

  • Визуальные индикаторы статуса поиска (First visual indication).
  • Визуальные индикаторы статуса идентификации (Second visual indication – например, цветные рамки).
  • Оверлей с информацией о выбранном элементе и гиперссылками.

На что влияет

  • Конкретные типы контента: В первую очередь влияет на видеоконтент (фильмы, сериалы, обзоры продуктов, рекламные ролики).
  • Специфические запросы: Влияет на неявные информационные и коммерческие запросы, возникающие при просмотре ("Кто этот актер?", "Что это за часы?").
  • Конкретные ниши или тематики: Сильное влияние на E-commerce (идентификация продуктов в кадре), развлечения (идентификация актеров, локаций), и рекламу (интерактивные рекламные вставки).

Когда применяется

  • Условия работы алгоритма: Требуется воспроизведение видеоконтента на совместимом устройстве или программном обеспечении.
  • Триггеры активации: Активируется исключительно по действию пользователя – нажатие кнопки "Image Search" или команды паузы (pause command).

Пошаговый алгоритм

  1. Получение контента: Система принимает поток видеоконтента от источника.
  2. Инициация поиска: Пользователь подает команду (например, ставит видео на паузу) для анализа текущего кадра.
  3. Захват и сохранение: Изображение (кадр) сохраняется в памяти.
  4. Идентификация элементов: Система анализирует изображение для определения множества потенциальных элементов (объектов, лиц, текста).
  5. Параллельный поиск: Система инициирует поиск для идентификации каждого элемента. Это может включать:
    • Отправку данных в Image Matching Module (визуальное сопоставление).
    • Выполнение Character Recognition Algorithm (OCR).
    • Проверку наличия Predetermined Item Identifier Data (метаданные).
  6. Отображение статуса поиска (Первая индикация): Во время поиска система отображает индикатор процесса для каждого элемента (например, пульсирующая рамка), который меняется по завершении поиска.
  7. Определение статуса идентификации: На основе результатов поиска каждому элементу присваивается статус: Known Identity, Plurality of Known Identities или Неизвестен.
  8. Отображение статуса идентификации (Вторая индикация): Система подсвечивает элементы, используя разные цвета для визуального различения статусов уверенности.
  9. Выбор пользователя: Система получает выбор одного из подсвеченных элементов от пользователя.
  10. Извлечение информации: Система извлекает детальную информацию о выбранном элементе. Если выбрано "Множество идентичностей", может быть запрошено уточнение.
  11. Отображение результатов: Система предоставляет информацию и гиперссылки в оверлее поверх видеоконтента.

Какие данные и как использует

Данные на входе

Система использует следующие данные для идентификации элементов:

  • Мультимедиа факторы (Визуальные данные): Пиксельные данные изображения (стоп-кадра). Это основной источник данных для Image Matching Module.
  • Контентные факторы (Текст на изображении): Текст, извлеченный из изображения с помощью Character Recognition Algorithm (OCR).
  • Технические факторы (Метаданные видео): Predetermined Item Identifier Data – встроенные в видеопоток идентификаторы, которые позволяют определить объект без визуального анализа.
  • Пользовательские факторы (Взаимодействие): Явные действия пользователя – инициация поиска и выбор конкретного элемента.

Какие метрики используются и как они считаются

Патент не описывает метрики ранжирования (как Ranking Score), так как система фокусируется на идентификации.

  • Search Status (Статус поиска): Бинарное состояние (Выполняется / Завершен). Используется для управления первым визуальным индикатором.
  • Identification Status (Статус идентификации): Категориальная метрика уверенности, определяемая как Known Identity, Plurality of Known Identities или Неизвестен. Она рассчитывается на основе отчета от Image Matching Module. Вероятно, используются внутренние пороги уверенности (confidence thresholds) для определения, является ли совпадение однозначным, множественным или недостаточным.

Выводы

  1. Интеграция поиска и потребления контента: Патент описывает механизм бесшовной интеграции поисковых функций непосредственно в процесс просмотра видео. Это часть стратегии Google по переходу к контекстному и визуальному поиску.
  2. Мультимодальное распознавание в сложных сценах: Система способна одновременно анализировать и идентифицировать множество различных объектов в одном кадре, используя разные методы (визуальное сопоставление, OCR, встроенные метаданные).
  3. Важность обратной связи интерфейса: Особое внимание уделяется пользовательскому опыту. Патент защищает использование двух distinct типов визуальных индикаторов: один для статуса процесса поиска, другой для результата идентификации (включая различие между однозначным и множественным совпадением).
  4. Векторы идентификации: Визуальное сходство, OCR и Метаданные: Патент четко определяет три пути идентификации объектов, что дает создателям контента разные возможности для оптимизации.
  5. Монетизация и E-commerce: Патент явно предусматривает использование этой технологии для рекламы (advertising labels) и коммерции, позволяя связывать объекты в кадре с гиперссылками на сайты рекламодателей.

Практика

Best practices (это мы делаем)

Хотя патент описывает интерфейс и технологию распознавания, а не алгоритм ранжирования, он дает важные инсайты для стратегий Video SEO и Visual Search Optimization (VSEO).

  • Обеспечение визуальной четкости (VSEO): Для успешной работы Image Matching Module необходимо, чтобы ключевые объекты, продукты, логотипы и лица были четко видны в видеоконтенте. Используйте качественное освещение и фокусировку при создании видео и изображений.
  • Усиление связи Визуальный образ -> Сущность: Необходимо укреплять связь между визуальным представлением продукта/бренда и его сущностью в Knowledge Graph. Это достигается путем последовательного использования изображений на официальном сайте, в Google Merchant Center и использования микроразметки (Schema.org для Product, Organization, Person).
  • Оптимизация текста в кадре (OCR): Если в видео присутствуют важные текстовые элементы (названия брендов, модели), убедитесь, что они достаточно крупные и контрастные для распознавания с помощью Character Recognition Algorithm.
  • Использование метаданных в видео (Video SEO): Если платформа (например, YouTube Shopping) предоставляет возможность встраивать метаданные для идентификации продуктов (аналог Predetermined item identifier data), необходимо использовать эту функцию для гарантии точного распознавания.
  • Мониторинг визуальной выдачи: Используйте инструменты визуального поиска (например, Google Lens) на кадрах из ваших видео, чтобы понять, как Google идентифицирует их. Если система предлагает Plurality of Known Identities, это может указывать на недостаточно уникальный визуальный образ.

Worst practices (это делать не надо)

  • Использование нечетких или затемненных изображений: Публикация видео или изображений низкого качества, где ключевые элементы трудно различимы, снижает вероятность их успешной идентификации системами визуального поиска.
  • Игнорирование визуальной идентичности: Отсутствие последовательной визуальной стратегии для продуктов и брендов затрудняет для Google формирование однозначной связи между визуальным образом и сущностью.
  • Слишком мелкий или нечитаемый текст в видео: Размещение важной информации текстом, который невозможно прочитать или распознать с помощью OCR.

Стратегическое значение

Патент подтверждает долгосрочную стратегию Google на развитие визуального и контекстного поиска. Для SEO-специалистов это означает, что оптимизация больше не ограничивается текстом. Визуальное представление сущностей становится полноценным фактором в экосистеме поиска. Стратегия должна включать управление визуальными активами и обеспечение их распознаваемости алгоритмами машинного зрения, особенно в контексте роста популярности Video Commerce.

Практические примеры

Сценарий: Оптимизация видеообзора гаджета для интерактивного поиска

  1. Задача: Убедиться, что новый смартфон, показанный в обзоре, будет распознан системой интерактивного поиска с использованием всех трех векторов идентификации.
  2. Действия (Визуальное сопоставление): Показать смартфон крупным планом с разных ракурсов, акцентируя внимание на уникальных элементах дизайна (например, блоке камер), чтобы помочь Image Matching Module.
  3. Действия (OCR): Четко показать коробку смартфона, где крупно написано название модели и бренд, чтобы Character Recognition Algorithm мог его прочитать.
  4. Действия (Метаданные): Если платформа позволяет, использовать инструменты для маркировки продуктов в видео, указав точное соответствие смартфона в каталоге (используя аналог Predetermined item identifier data).
  5. Ожидаемый результат: Когда пользователь ставит видео на паузу, система подсвечивает смартфон зеленым цветом (known identity). При выборе смартфона появляется оверлей с названием модели, характеристиками и гиперссылкой на страницу покупки в интернет-магазине.

Вопросы и ответы

Как эта технология связана с Google Lens?

Google Lens является современным воплощением идей, заложенных в этом патенте. Патент описывает конкретную реализацию для видеоконтента (особенно Smart TV), где пользователь приостанавливает видео для анализа кадра. Google Lens использует аналогичные базовые технологии (Image Matching Module, OCR) для анализа изображений с камеры в реальном времени или загруженных фотографий, применяя их в более широком контексте.

Влияет ли этот патент на ранжирование моего сайта в обычном поиске?

Нет, этот патент не описывает алгоритмы ранжирования веб-страниц. Он посвящен механизму идентификации объектов внутри видеоконтента и интерфейсу для предоставления этой информации. Прямого влияния на позиции сайта в традиционной выдаче он не оказывает, но подчеркивает важность работы над распознаваемостью ваших сущностей (продуктов, бренда).

Что такое "первая и вторая визуальные индикации" и в чем их разница?

Патент четко разделяет два типа обратной связи. Первая визуальная индикация показывает статус процесса поиска (например, анимация, означающая "идет поиск", которая сменяется на статичное состояние "поиск завершен"). Вторая визуальная индикация показывает результат идентификации (например, зеленая рамка означает "объект точно известен", а желтая – "есть несколько вариантов").

Что такое "Predetermined Item Identifier Data" и как я могу их использовать?

Это метаданные, встроенные непосредственно в видеопоток, которые сообщают системе, что именно находится в кадре. Это позволяет идентифицировать объекты даже без визуального распознавания. Для Video SEO это критически важный механизм, позволяющий напрямую контролировать распознавание. На практике это может реализовываться через функции платформ, например, YouTube Shopping.

Как я могу оптимизировать свои видео для этой технологии?

Ключевая рекомендация – обеспечить визуальную четкость. Убедитесь, что продукты, логотипы и лица хорошо освещены и находятся в фокусе. Также важно укреплять связь между визуальным образом и сущностью через традиционные методы SEO: использование структурированных данных (Schema.org) на ваших веб-страницах и загрузка качественных изображений в Google Merchant Center.

В чем разница между "Known Identity" и "Plurality of Known Identities"?

Known Identity означает, что система уверена в идентификации объекта (например, распознана конкретная модель часов). Plurality of Known Identities означает, что система нашла несколько похожих вариантов и не может выбрать один (например, распознан бренд, но модель неясна). В этом случае пользователю может быть предложено уточнить выбор.

Как интегрируется реклама в этот механизм?

Патент описывает возможность маркировки элементов в кадре рекламными метками (advertising labels). Это может быть реализовано двумя способами: либо система распознает продукт и автоматически подтягивает рекламу, либо рекламодатель заранее определяет, какие элементы в видео должны быть интерактивными и вести на его сайт. При выборе такого элемента пользователь увидит контент рекламодателя и гиперссылку.

Использует ли система распознавание текста (OCR)?

Да, в патенте явно упоминается использование Character Recognition Algorithm. Система может извлекать текст из кадра (например, название бренда на этикетке или текст на обложке книги) и использовать его как дополнительный сигнал для идентификации объекта.

Что делать, если система неправильно идентифицирует мой продукт в видео?

Патент не описывает механизмы обратной связи для исправления ошибок. Если ваш продукт систематически распознается неправильно, необходимо работать над улучшением его визуальной идентичности: публиковать более качественные и однозначные изображения продукта на официальных ресурсах и в Merchant Center, чтобы обучить Image Matching Module.

Применяется ли эта технология только для Smart TV?

Хотя в патенте часто упоминаются Smart Television Module и Google TV как примеры реализации, описанные методы и системы могут быть применены на любых устройствах, способных воспроизводить видео и поддерживающих интерактивные функции, включая веб-плееры, планшеты и смартфоны.

Похожие патенты

Как Google распознает и связывает объекты на изображении с результатами поиска (Архитектура Google Lens)
Google использует систему параллельных поисковых движков (OCR, распознавание лиц, объектов, продуктов) для анализа визуального запроса (изображения). Система создает интерактивный документ, накладывая на исходное изображение визуальные идентификаторы (например, рамки или метки) для распознанных объектов. Эти идентификаторы служат ссылками на конкретные результаты поиска для каждого объекта.
  • US9087059B2
  • 2015-07-21
  • Мультимедиа

  • Ссылки

Как Google создает видео-нарезки (Composite Videos) на лету, используя текстовый запрос и анализ аудиодорожек
Google может анализировать аудиодорожки (транскрипты) видео для идентификации конкретных сегментов, где произносятся слова из запроса пользователя. Система автоматически объединяет эти сегменты из разных видео в одно новое сводное видео (Composite Video). Для выбора сегментов используются метрики релевантности, популярности и свежести исходного контента.
  • US9672280B2
  • 2017-06-06
  • Мультимедиа

  • Индексация

  • Семантика и интент

Как Google использует Vision-Language и Генеративные модели для анализа ключевых кадров видео и ответов на вопросы пользователей
Google разработал систему для эффективного понимания содержания видео. Вместо анализа каждого кадра система выбирает ключевые кадры и использует Vision-Language Model для создания их текстового описания. Когда пользователь задает вопрос о видео, система объединяет запрос с этими описаниями и использует генеративную модель (LLM) для формирования точного ответа в реальном времени.
  • US20250190488A1
  • 2025-06-12
  • Мультимедиа

  • Семантика и интент

Как Google автоматически определяет и отображает ключевые моменты (Key Moments) в видео для улучшения навигации
Google использует систему для анализа видеоконтента с помощью текстовых, визуальных и аудиосигналов. Система определяет "ключевые моменты" (salient topics), генерирует для них текстовые метки и интеллектуально выбирает наиболее релевантные стоп-кадры. Эти "временные анкоря" (Video Timed Anchors) позволяют пользователям понять структуру видео и перейти к интересующему сегменту прямо из поиска или плеера.
  • US20240046964A1
  • 2024-02-08
  • Мультимедиа

  • Семантика и интент

Как Google использует интерактивные карточки (Media Interfaces) для навигации по связанному контенту и плейлистам в медиаплеерах (например, YouTube)
Патент Google, описывающий механизм пользовательского интерфейса (UI) для медиаплатформ. Система отображает интерактивные карточки (Media Interfaces) для текущего контента и динамически подгружает карточки для связанного контента (видео или плейлистов) на основе схожести метаданных и анализа поведения пользователя. Это упрощает навигацию и обнаружение контента, особенно на устройствах с ограниченным экраном.
  • US20150301693A1
  • 2015-10-22
  • Мультимедиа

  • Персонализация

  • Поведенческие сигналы

Популярные патенты

Как Google использует "ложные пропуски" (Fake Skips) для точной оценки качества своих правил синонимов
Google анализирует поведение пользователей для оценки качества синонимов, используемых при переписывании запросов. Патент вводит метрику "Fake Skip" (Ложный пропуск). Она фиксируется, если пользователь пропустил результат с синонимом, но кликнул на результат ниже, который также содержит этот синоним и исходный термин. Это позволяет точнее калибровать систему синонимов и не пессимизировать хорошие правила из-за неоднозначного поведения пользователей.
  • US8909627B1
  • 2014-12-09
  • Поведенческие сигналы

  • Семантика и интент

  • SERP

Как Google использует данные о поведении пользователей для генерации и ранжирования Sitelinks (Дополнительных ссылок сайта)
Патент описывает механизм генерации Sitelinks (дополнительных ссылок под основным результатом поиска). Google анализирует логи доступа пользователей (частоту кликов, время на странице) и другие факторы качества, чтобы определить наиболее важные внутренние страницы сайта. Эти страницы затем отображаются в виде ранжированного списка для ускорения навигации пользователя.
  • US7996391B2
  • 2011-08-09
  • Ссылки

  • Поведенческие сигналы

  • SERP

Как Google определяет ключевую тематику зданий и адресов, используя клики пользователей для показа релевантной рекламы
Google использует этот механизм для понимания основного назначения физического местоположения (адреса или здания). Система анализирует все бизнесы в этой локации и определяет, какие поисковые запросы чаще всего приводят к кликам по их листингам. Самый популярный запрос используется как доминирующее ключевое слово для выбора релевантной рекламы, когда пользователи ищут этот адрес или взаимодействуют с ним на Картах или в Street View.
  • US20120278171A1
  • 2012-11-01
  • Local SEO

  • Семантика и интент

  • Поведенческие сигналы

Как Google использует поведение пользователей для определения синонимичности фраз в запросах, связанных с сущностями
Google анализирует поведение пользователей (клики по результатам поиска), чтобы определить, означают ли разные фразы одно и то же, когда они связаны с одним типом сущности (например, «достопримечательности в <Город>» против «места для посещения в <Город>»). Если пользователи кликают на одни и те же документы для разных фраз, система считает эти фразы эквивалентными, что помогает Google понимать синонимы и улучшать результаты поиска.
  • US10073882B1
  • 2018-09-11
  • Семантика и интент

  • Поведенческие сигналы

Как Google использует клики пользователей в Поиске по Картинкам для определения реального содержания изображений
Google использует данные о поведении пользователей для автоматической идентификации содержания изображений. Если пользователи вводят определенный запрос (Идею) и массово кликают на конкретное изображение в результатах поиска, система ассоциирует это изображение с Концептом, производным от запроса. Это позволяет Google понимать, что изображено на картинке, не полагаясь исключительно на метаданные или сложный визуальный анализ, и улучшает релевантность ранжирования в Image Search.
  • US8065611B1
  • 2011-11-22
  • Поведенческие сигналы

  • Семантика и интент

  • Мультимедиа

Как Google классифицирует запросы как навигационные или исследовательские, чтобы регулировать количество показываемых результатов
Google использует систему для динамического определения количества отображаемых результатов поиска. Система классифицирует запрос как навигационный (поиск конкретного места/ресурса) или исследовательский (поиск вариантов). Классификация основана на анализе компонентов оценки релевантности (совпадение по названию vs. категории) и энтропии исторических кликов. При навигационном интенте количество результатов сокращается.
  • US9015152B1
  • 2015-04-21
  • Семантика и интент

  • Поведенческие сигналы

  • Local SEO

Как Google использует нейросетевые эмбеддинги (Two-Tower Model) для семантического поиска изображений с учетом контекста страницы
Google использует систему поиска изображений, основанную на нейронных сетях (модель "Две Башни"). Система создает векторные представления (эмбеддинги) для поисковых запросов и для пар "изображение + посадочная страница", помещая их в общее семантическое пространство. Это позволяет находить релевантные изображения не по ключевым словам, а по близости векторов, учитывая как содержание картинки, так и контекст страницы, на которой она размещена.
  • US11782998B2
  • 2023-10-10
  • Семантика и интент

  • Индексация

  • Мультимедиа

Как Google использует историю запросов в текущей сессии и статистические паттерны для переранжирования результатов
Google анализирует миллионы прошлых поисковых сессий, выявляя статистически значимые последовательности запросов («Пути Запросов»), которые заканчиваются кликом на определенный URL («Конечная Точка Контента»). Когда текущая сессия пользователя совпадает с историческим путем, Google переранжирует результаты, повышая те URL, которые исторически удовлетворяли пользователей в аналогичном контексте, пропорционально вероятности их выбора.
  • US7610282B1
  • 2009-10-27
  • Поведенческие сигналы

  • SERP

  • Семантика и интент

Как Google определяет скрытый локальный интент в запросах для повышения релевантности местных результатов
Google использует механизм для определения того, подразумевает ли запрос (например, «ресторан») поиск локальной информации, даже если местоположение не указано. Система анализирует агрегированное поведение пользователей для расчета «степени неявной локальной релевантности» запроса. Если этот показатель высок, Google повышает в ранжировании результаты, соответствующие местоположению пользователя.
  • US8200694B1
  • 2012-06-12
  • Local SEO

  • Поведенческие сигналы

  • Семантика и интент

Как Google фильтрует поведенческие сигналы, используя совместимость языков и стран пользователей
Google уточняет ранжирование, анализируя, откуда (страна) и на каком языке (язык пользователя) поступали исторические клики по документу. Если эти характеристики считаются «несовместимыми» с текущим пользователем, поведенческие сигналы (клики) от этих групп могут быть исключены или понижены в весе. Это предотвращает искажение релевантности данными от кардинально отличающихся аудиторий.
  • US8498974B1
  • 2013-07-30
  • Поведенческие сигналы

  • Мультиязычность

  • Персонализация

seohardcore