SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google использует мультимодальный поиск (текст + изображение) для уточнения запросов и фильтрации видеоконтента

CAMERA INPUT AS AN AUTOMATED FILTER MECHANISM FOR VIDEO SEARCH (Ввод с камеры как автоматизированный механизм фильтрации для поиска видео)
  • US20210064652A1
  • Google LLC
  • 2020-09-03
  • 2021-03-04
  • Мультимедиа
  • Индексация
  • Семантика и интент
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google использует механизм мультимодального поиска, позволяющий пользователям дополнять текстовые запросы визуальным вводом (например, фотографией). Система анализирует изображение с помощью моделей машинного обучения для распознавания объектов и генерации семантической информации. Эта информация используется либо для создания уточненного составного запроса (composite query), либо для фильтрации исходных результатов поиска путем сопоставления метаданных изображения с метаданными проиндексированного видеоконтента.

Описание

Какую проблему решает

Патент решает проблему неточности или широты результатов текстового поиска, особенно когда пользователю сложно вербально описать специфические детали объекта (например, точную модель продукта) или когда текстовый запрос возвращает слишком много нерелевантных результатов. Изобретение улучшает релевантность поиска контента, в частности видео (например, инструкций "How-to"), позволяя пользователю использовать изображение объекта для уточнения запроса.

Что запатентовано

Запатентована система мультимодального поиска, которая комбинирует текстовый запрос (textual query) и визуальный ввод (visual input, например, изображение с камеры). Система использует обученные модели машинного обучения (trained machine learned models), такие как CNN, для распознавания объектов на изображении и генерации соответствующей семантической информации. Эта информация используется для уточнения поиска одним из двух основных способов: путем создания составного запроса (composite query) или путем фильтрации результатов поиска на основе визуального соответствия.

Как это работает

Система предлагает два основных механизма обработки запроса и один механизм индексации:

  • Расширение запроса (Composite Query): Пользователь вводит текст (например, «как починить») и предоставляет изображение (например, сломанной кофеварки). Система распознает объект, генерирует текст (например, «кофеварка [бренд] [модель]») и объединяет его с исходным запросом для выполнения нового, более точного поиска.
  • Фильтрация результатов (Visual Matching): Пользователь вводит текст и получает результаты. Затем он предоставляет изображение. Система генерирует метаданные из изображения и сравнивает их с метаданными уже проиндексированного контента (хранящимися в Video Visual Metadata Library). Результаты фильтруются для показа контента, визуально соответствующего изображению.
  • Индексация контента: Система анализирует кадры видео или изображения, предоставленные при загрузке контента, для генерации и сохранения визуальных метаданных.

Актуальность для SEO

Высокая. Патент напрямую связан с текущими тенденциями развития мультимодального поиска (например, Google MUM, Google Lens) и интеграцией технологий визуального распознавания в основные поисковые продукты. Описанные механизмы крайне актуальны в 2025 году, учитывая рост потребления видеоконтента и потребность в точном поиске информации о физических объектах.

Важность для SEO

Патент имеет высокое значение (85/100), особенно для Video SEO, E-commerce и сайтов с инструкциями. Он демонстрирует, как Google индексирует и использует визуальное содержимое контента для определения релевантности. Это подчеркивает необходимость оптимизации не только текста, но и визуальной ясности контента (Visual SEO), чтобы системы машинного зрения могли точно распознавать объекты и связывать их с запросами пользователей.

Детальный разбор

Термины и определения

Composite Query (Составной запрос)
Новый запрос, сгенерированный путем объединения исходного текстового запроса (textual query) и текста, полученного в результате анализа визуального ввода.
Visual Input (Визуальный ввод)
Изображение или видеопоток (например, с камеры), предоставленные пользователем для уточнения поиска или при загрузке контента.
Object Identification (Распознавание объектов)
Процесс анализа визуального ввода для идентификации объектов, часто с использованием моделей машинного обучения.
Trained Machine Learned Model (ML Model) (Обученная модель машинного обучения)
Алгоритм (например, сверточная нейронная сеть, CNN), обученный распознавать объекты в изображениях и видеокадрах.
Classifiers (Классификаторы)
Метки или категории, которые модель машинного обучения присваивает распознанным объектам.
Confidence Level (Уровень уверенности)
Метрика, указывающая на вероятность точности распознавания объекта. Используется для определения степени детализации при уточнении запроса.
Semantic Query Addition (Семантическое дополнение запроса)
Процесс добавления текста, сгенерированного на основе распознавания объектов, к исходному текстовому запросу.
Textual Metadata / Semantic Information (Текстовые метаданные / Семантическая информация)
Текст или данные, сгенерированные на основе анализа визуального ввода. Используются для создания запросов, фильтрации или индексации.
Video Visual Metadata Library (Библиотека визуальных метаданных видео)
Хранилище данных, содержащее предварительно вычисленные визуальные и семантические метаданные (включая временные метки) для проиндексированного видеоконтента.

Ключевые утверждения (Анализ Claims)

Патент содержит три независимых пункта (1, 9, 18), описывающих три разных механизма системы.

Механизм 1: Генерация составного запроса (Claim 1)

Claim 1 (Независимый пункт): Описывает метод расширения запроса.

  1. Система получает текстовый запрос (в момент T1).
  2. После этого (в момент T2) система получает визуальный ввод.
  3. Система генерирует текст на основе визуального ввода.
  4. Система создает Composite Query, комбинируя исходный текст и сгенерированный текст.
  5. Система генерирует результаты поиска на основе Composite Query.

Система использует ML-модель для Object Identification и Semantic Query Addition (Claim 2). Claims 5 и 6 вводят итеративное уточнение: система использует Confidence Levels для перехода от общей идентификации (например, "лампа") к специфической ("лампа [Бренд]") или контекстной ("сломанная лампа"), если уверенность превышает заданные пороги.

Механизм 2: Фильтрация результатов (Claim 9)

Claim 9 (Независимый пункт): Описывает метод фильтрации.

  1. Система получает текстовый запрос и визуальный ввод.
  2. Система генерирует результаты поиска по текстовому запросу.
  3. Система генерирует Textual Metadata из визуального ввода.
  4. Система фильтрует результаты, используя эти метаданные.

Визуальный ввод действует как пост-фильтр. Фильтрация основана на сопоставлении метаданных изображения с данными в Video Visual Metadata Library (Claim 14).

Механизм 3: Индексация контента (Claim 18)

Claim 18 (Независимый пункт): Описывает генерацию метаданных при индексации.

  1. Система получает контент (например, видео).
  2. Система получает связанный визуальный ввод (например, изображение от загрузчика или анализирует кадры видео).
  3. Система выполняет Object Identification.
  4. Система генерирует Semantic Information и сохраняет ее как метаданные контента.

Это процесс обогащения индекса, происходящий при загрузке или обработке контента.

Где и как применяется

Изобретение затрагивает несколько этапов поиска, связывая индексирование, понимание запросов и ранжирование.

INDEXING – Индексирование и извлечение признаков
(Связано с Механизмом 3 и подготовкой данных для Механизма 2). Система анализирует контент для создания Video Visual Metadata Library. Это включает анализ кадров видео или анализ связанных изображений, предоставленных при загрузке (Claim 18). Извлекается семантическая и визуальная информация об объектах, часто с временными метками (timestamps).

QUNDERSTANDING – Понимание Запросов
(Связано с Механизмом 1). Система обрабатывает мультимодальный ввод (текст + изображение). Визуальный ввод анализируется ML-моделью (CNN) для генерации текста. Этот текст используется для уточнения исходного запроса путем создания Composite Query в реальном времени.

RANKING / RERANKING – Ранжирование / Переранжирование

  • (Механизм 1): Система выполняет поиск и ранжирование на основе уточненного Composite Query.
  • (Механизм 2): Система получает первый набор результатов по текстовому запросу (RANKING), а затем использует метаданные из визуального ввода для фильтрации или переранжирования этого набора (RERANKING), сопоставляя их с Video Visual Metadata Library.

На что влияет

  • Конкретные типы контента: В первую очередь видеоконтент, но также применимо к товарам и инструкциям.
  • Специфические запросы: Информационные ("how-to") и коммерческие запросы, связанные с физическими объектами (ремонт, идентификация товаров, обзоры).
  • Конкретные ниши или тематики: DIY (сделай сам), ремонт, E-commerce, обзоры техники – ниши, где визуальная идентификация объекта критична.

Когда применяется

  • Триггеры активации: Когда пользователь предоставляет и текстовый запрос, и визуальный ввод (например, используя иконку камеры в поиске).
  • Пороговые значения: Применение более детального распознавания (специфического или контекстуального) зависит от того, превышает ли Confidence Level распознавания заданные пороги (First/Second Condition). Если уверенность низкая, используется только общая идентификация.

Пошаговый алгоритм

Патент описывает три ключевых алгоритма.

Алгоритм А: Расширение запроса (Composite Query)

  1. Получение ввода: Получить текстовый запрос и визуальный ввод.
  2. Распознавание объектов: Анализ визуального ввода с помощью ML-модели (CNN). Генерация Classifiers и Confidence Levels.
  3. Генерация текста (поэтапная / прогрессивное уточнение):
    1. Генерация базового текста (Уровень 1: Общий, например, «лампа»).
    2. Проверка Confidence Level. Если выше порога 1, генерация специфического текста (Уровень 2: Специфический, например, «[брендовая] лампа»).
    3. Если выше порога 2, генерация контекстного текста (Уровень 3: Контекстный, например, «сломанная [брендовая] лампа»).
  4. Создание составного запроса: Добавление выбранного текста к исходному запросу (Semantic Query Addition).
  5. Выполнение поиска: Поиск по новому Composite Query.

Алгоритм Б: Фильтрация результатов (Visual Matching)

  1. Получение ввода и первичный поиск: Получить текстовый запрос и сгенерировать первичные результаты.
  2. Получение визуального ввода: Получить изображение.
  3. Генерация метаданных: Анализ изображения и генерация Textual Metadata.
  4. Сопоставление метаданных: Сравнение метаданных изображения с метаданными контента (из Video Visual Metadata Library).
  5. Фильтрация: Фильтрация или переранжирование результатов на основе соответствия.

Алгоритм В: Индексация видео (Подготовка данных)

  1. Получение контента: Загрузка видео.
  2. Анализ: Анализ кадров видео и/или анализ связанного изображения, предоставленного загрузчиком (Claim 18).
  3. Генерация метаданных: Создание визуальных метаданных (сущности, временные метки).
  4. Сохранение: Сохранение данных в Video Visual Metadata Library.

Какие данные и как использует

Данные на входе

  • Мультимедиа факторы (Визуальные данные): Ключевые данные – это Visual Input (изображение пользователя) и кадры из индексируемых видео. Анализируются пиксельные данные для распознавания объектов и текста (например, номеров моделей).
  • Контентные факторы (Текст): Исходный текстовый запрос пользователя.
  • Пользовательские факторы (Контекст): В патенте упоминается возможность использования "environmental information" (местоположение, история поиска) для дополнения запроса без явного ввода пользователем.

Какие метрики используются и как они считаются

  • Object Identification (Распознавание объектов): Выполняется с помощью моделей машинного обучения. В патенте детально описывается использование Сверточных нейронных сетей (CNN) для анализа изображений, извлечения признаков (feature maps) и классификации объектов.
  • Classifiers (Классификаторы): Метки, присваиваемые объектам моделью ML.
  • Confidence Level (Уровень уверенности): Числовая оценка, связанная с каждым классификатором, указывающая на уверенность модели в правильности распознавания.
  • Пороги уверенности (Conditions/Thresholds): Предварительно заданные значения (в патенте приводятся примеры 93%, 95%), с которыми сравнивается Confidence Level. Они определяют, насколько детальная информация будет использована для уточнения поиска.
  • Timestamps (Временные метки): Используются при индексации видео для привязки обнаруженных визуальных сущностей к конкретным моментам в видео.

Выводы

  1. Мультимодальный поиск как стандарт: Патент подтверждает стратегическое направление Google на интеграцию визуальной информации в процесс поиска. Текстовый запрос и визуальный ввод рассматриваются как взаимодополняющие сигналы для понимания намерения пользователя.
  2. Визуальное понимание контента при индексации: Google активно индексирует визуальное содержимое видеоконтента, создавая Video Visual Metadata Library. Это означает, что система «видит», какие объекты присутствуют в видео, и использует это для ранжирования.
  3. Два пути обработки мультимодальных запросов: Система может либо переписывать запрос (создание Composite Query), либо фильтровать результаты текстового поиска (Visual Matching).
  4. Важность распознавания объектов и контекста: Система стремится идентифицировать не только категорию объекта, но и конкретную модель и ее состояние (например, «сломанный»). Точность этого распознавания (Confidence Level) напрямую влияет на релевантность результатов.
  5. Обогащение индекса при загрузке (Claim 18): Патент описывает механизм использования изображений, предоставляемых создателями контента (например, превью), для улучшения индексации видео, что подчеркивает важность качественных связанных изображений.

Практика

Best practices (это мы делаем)

  • Обеспечение визуальной ясности ключевых объектов (Visual SEO): При создании видеоконтента (обзоры, инструкции) убедитесь, что ключевые объекты показаны четко, с хорошим освещением и с разных ракурсов. Это поможет ML-моделям Google точно распознать объект во время индексации (Механизм 3) и присвоить ему высокий Confidence Level.
  • Демонстрация идентификаторов продукта: Если контент посвящен конкретному продукту, убедитесь, что бренд, название модели или серийный номер визуально различимы в кадре. Система может распознать эту информацию (специфическая идентификация) и использовать ее как метаданные.
  • Оптимизация превью (Thumbnails): Используйте высококачественные и релевантные миниатюры для видео, которые четко отображают основной объект. Согласно Механизму 3 (Claim 18), эти изображения могут быть использованы системой для генерации семантической информации о контенте.
  • Структурирование видео (Key Moments): Поскольку система индексирует визуальные сущности с привязкой к временным меткам (timestamps), четкая структура видео помогает Google идентифицировать ключевые моменты, соответствующие конкретной визуальной информации, и направлять пользователя на нужный фрагмент.
  • Создание контента под специфические модели: Приоритет следует отдавать контенту, ориентированному на конкретные модели продуктов. Поскольку пользователи могут искать с помощью фото конкретного продукта (мультимодальный запрос), наличие точно соответствующего контента критично.

Worst practices (это делать не надо)

  • Использование размытых или низкокачественных визуалов: Видео или изображения, на которых сложно идентифицировать объекты, не будут эффективно индексироваться системой и не получат преимуществ в мультимодальном поиске.
  • Игнорирование визуальной составляющей: Фокус исключительно на текстовой оптимизации (заголовки, описания) при игнорировании того, как контент выглядит и воспринимается системами машинного зрения.
  • Вводящие в заблуждение визуальные элементы (Кликбейт): Использование превью, не соответствующих содержанию видео. Если система при индексации не находит соответствующих объектов в самом видео, это может негативно сказаться на ранжировании из-за несоответствия сигналов.

Стратегическое значение

Патент подчеркивает стратегический переход к мультимодальному поиску и важность Computer Vision в SEO. Для долгосрочной стратегии необходимо учитывать, что Google "видит" содержание изображений и видео. Это меняет подход к созданию контента: визуальная презентация становится фактором ранжирования (Visual SEO), так как напрямую влияет на то, как контент будет проиндексирован и насколько он будет соответствовать уточненным мультимодальным запросам пользователей.

Практические примеры

Сценарий: Оптимизация видеоинструкции по ремонту для мультимодального поиска

  1. Задача: Продвинуть видео о замене фильтра в кофемашине BrandX Model 123.
  2. Действия (основанные на патенте):
    • Начало видео: Четко показать кофемашину целиком, логотип BrandX и этикетку с названием Model 123. Это поможет системе индексации (Механизм 3) точно классифицировать объект с высоким Confidence Level.
    • Процесс ремонта: Крупным планом показать процесс извлечения фильтра. Система сможет извлечь контекст (Object + Context Identification).
    • Превью видео: Использовать изображение, на котором четко видна кофемашина BrandX Model 123.
  3. Ожидаемый результат: Когда пользователь вводит запрос "как заменить фильтр" и фотографирует свою кофемашину BrandX Model 123, система Google распознает модель (Object Identification). Она формирует Composite Query или применяет Filtering. Оптимизированное видео с высокой вероятностью займет топовую позицию, так как его визуальные метаданные точно соответствуют запросу.

Вопросы и ответы

Патент описывает два способа обработки мультимодального запроса: Composite Query и Filtering. В чем ключевая разница?

При Composite Query (Механизм 1) система анализирует изображение, генерирует текст и добавляет его к исходному запросу. Затем выполняется новый поиск по этому составному запросу. При Filtering (Механизм 2) система сначала ищет по исходному текстовому запросу, а затем сужает полученные результаты, сопоставляя визуальные метаданные изображения пользователя с метаданными индексированного контента. Первый метод меняет запрос, второй – уточняет результаты.

Как Google определяет, что находится внутри видео? Означает ли это, что нужно оптимизировать каждый кадр?

Да, патент указывает, что при индексации система анализирует кадры видео (Video frames analyzed) для извлечения семантической и визуальной информации о сущностях, которая сохраняется в Video Visual Metadata Library. Для SEO это означает, что ключевые объекты должны быть визуально четкими и распознаваемыми в те моменты видео, когда они демонстрируются, чтобы системы Computer Vision могли их корректно классифицировать.

Что такое Confidence Level и как он влияет на поиск?

Confidence Level – это мера уверенности системы в том, что она правильно распознала объект на изображении. Если уверенность низкая, система использует общую классификацию (например, "лампа"). Если уверенность высокая (превышает порог), она использует специфическую идентификацию (например, бренд и модель). Это напрямую влияет на то, насколько сильно будет сужен и уточнен поиск пользователя.

Как этот патент связан с Google Lens?

Этот патент описывает базовые механизмы, которые лежат в основе функциональности, подобной Google Lens и Multisearch, интегрированной в процесс поиска. Патент предоставляет техническую основу для того, как именно объединяются визуальный и текстовый вводы для генерации или фильтрации результатов поиска в базе данных контента.

Влияет ли этот патент на SEO для обычных веб-страниц с изображениями, или только на видео?

Хотя в названии и примерах акцент сделан на поиске видео, описанные механизмы (Claims 1 и 9) применимы к генерации ссылок на любой контент (links to content). Если пользователь использует мультимодальный запрос для поиска веб-страниц, система также будет стремиться найти контент, который соответствует как тексту, так и визуальному вводу. Поэтому оптимизация изображений на веб-страницах также критична.

Что подразумевается под Механизмом 3 (Claim 18) об индексации контента с визуальным вводом?

Этот механизм описывает, как Google может улучшать индексацию контента на этапе его загрузки. Если создатель контента предоставляет изображение, связанное с видео (например, превью или фото объекта из видео), Google анализирует это изображение с помощью Object Identification и сохраняет полученную семантическую информацию как метаданные видео. Это повышает точность индексации.

Какие технологии машинного обучения упоминаются в патенте?

Патент упоминает использование обученных моделей машинного обучения (trained ML model) для Object Identification. В описании детально рассматривается архитектура Сверточной Нейронной Сети (CNN), которая используется для анализа изображений, извлечения признаков и классификации объектов.

Как SEO-специалисту проверить, распознает ли Google объекты в нашем контенте?

Можно использовать инструменты, основанные на Google Cloud Vision AI (или сам Google Lens), чтобы протестировать ключевые изображения и скриншоты из видео. Если эти инструменты корректно распознают объекты, бренды и модели, то с высокой вероятностью поисковые системы Google также смогут это сделать при индексации и обработке запросов.

Что означает использование временных меток (timestamps) при индексации?

Это означает, что Google знает не только, что объект присутствует в видео, но и когда именно он появляется. Это позволяет системе направлять пользователя непосредственно на тот фрагмент видео (Key Moment), который наиболее релевантен его визуальному вводу (например, сразу к моменту начала ремонта нужной детали).

Как влияет качество видео (разрешение, освещение) на работу этих механизмов?

Чем выше качество, разрешение и лучше освещение в видео, тем выше вероятность корректного распознавания объектов и, соответственно, выше Confidence Level. Низкое качество видео может привести к тому, что система либо не распознает объект вообще, либо классифицирует его только по общему типу, что снижает шансы ранжирования по специфическим мультимодальным запросам.

Похожие патенты

Как Google использует мультимодальный поиск (изображение + голос) для более точного понимания запросов и ранжирования результатов
Google использует механизм мультимодального поиска, обрабатывая запросы, которые одновременно содержат изображение (например, фото) и аудио (например, голосовое описание или уточнение). Система анализирует визуальные признаки и конвертирует речь в текст, используя совместную модель релевантности для поиска ресурсов (таких как товары или веб-страницы), которые соответствуют обоим типам входных данных.
  • US8788434B2
  • 2014-07-22
  • Мультимедиа

  • Семантика и интент

  • SERP

Как Google объединяет изображение с камеры и одновременный аудиовход (речь и звуки) для выполнения сложных мультимодальных поисковых запросов
Система мультимодального поиска Google, которая одновременно обрабатывает визуальные данные с камеры и аудиоданные с микрофона. Система извлекает визуальные признаки, транскрибирует речь и анализирует звуковые сигнатуры. Это позволяет пользователям задавать контекстные вопросы об объектах в кадре (например, «[Фото платья] + Найди такое же синее») или диагностировать проблемы по звуку и изображению (например, шум неисправного прибора), получая релевантные результаты из веб-поиска, поиска по картинкам или от генеративных моделей.
  • US12346386B2
  • 2025-07-01
  • Мультимедиа

  • Семантика и интент

Как Google объединяет изображение и текст для создания мультимодальных запросов (Google Multisearch)
Google патентует интерфейс для уточнения визуального поиска. Пользователь загружает изображение, видит результаты и специальное поле для ввода текстового уточнения. Система объединяет изображение и текст в единый мультимодальный запрос (Multimodal Search Query), чтобы точнее понять намерение пользователя и предоставить релевантные результаты разных форматов, включая товары, видео и статьи.
  • US20240028638A1
  • 2024-01-25
  • Мультимедиа

  • Семантика и интент

  • SERP

Как Google использует одновременный ввод видео и аудио (Multimodal Search) для понимания сложных запросов
Google разрабатывает систему мультимодального поиска, позволяющую пользователям записывать видео и одновременно задавать вопрос голосом или записывать звук. Система использует продвинутые ML-модели для генерации видео-эмбеддингов, анализа временной информации и аудиосигнатур. Это позволяет поиску понимать сложные запросы, требующие визуального и аудиального контекста (например, диагностика поломок, обучение действиям), и находить релевантные ответы в виде видео, веб-страниц или AR.
  • US20240403362A1
  • 2024-12-05
  • Мультимедиа

  • Семантика и интент

  • Индексация

Как Google комбинирует визуальные признаки и распознанный текст (OCR) внутри изображения для улучшения визуального поиска
Google использует технологию мультимодального поиска, которая анализирует как визуальные характеристики захваченного изображения (например, с камеры телефона), так и текст, распознанный внутри него (OCR). Комбинация этих двух типов данных позволяет точнее идентифицировать электронный оригинал изображения, что критически важно для работы систем визуального поиска (например, Google Lens).
  • US9323784B2
  • 2016-04-26
  • Мультимедиа

  • Индексация

  • Семантика и интент

Популярные патенты

Как Google использует контент вокруг ссылок (вне анкора) для генерации «Синтетического Описательного Текста» и ранжирования вашего сайта
Google может генерировать «Синтетический Описательный Текст» для страницы, анализируя контент и структуру сайтов, которые на нее ссылаются. Система создает структурные шаблоны для извлечения релевантного текста (например, заголовков или абзацев рядом со ссылкой), который затем используется как мощный сигнал ранжирования. Этот механизм позволяет лучше понять содержание страницы, особенно если традиционный анкорный текст низкого качества или отсутствует.
  • US9208233B1
  • 2015-12-08
  • Ссылки

  • Семантика и интент

  • Индексация

Как Google предсказывает, какие сайты будут интересны пользователю на основе его контекста (местоположение, время, интересы) без поискового запроса
Google использует агрегированные данные о поведении пользователей для прогнозирования контента. Система анализирует контекст пользователя (местоположение, время, интересы, историю) и определяет, какие сайты посещают похожие пользователи в аналогичном контексте значительно чаще, чем пользователи в целом. Этот механизм позволяет предлагать релевантный контент без явного запроса (например, в Google Discover).
  • US9195703B1
  • 2015-11-24
  • Персонализация

  • Поведенческие сигналы

  • Семантика и интент

Как Google динамически формирует Панели Знаний, выбирая блоки информации на основе истории поисковых запросов пользователей
Google использует гибридный подход для создания структурированных страниц о сущностях (например, Панелей Знаний). Система анализирует исторические данные о том, что пользователи чаще всего ищут об этой сущности или её классе. На основе этого анализа динамически выбираются блоки информации (например, «Награды», «Саундтрек»), которые дополняют стандартный набор данных, позволяя автоматически адаптировать выдачу под актуальные интересы аудитории.
  • US10110701B2
  • 2018-10-23
  • Knowledge Graph

  • Поведенческие сигналы

  • Персонализация

Как Google оценивает и выбирает контент для Featured Snippets (Блоков с ответами) на основе консенсуса выдачи
Google использует систему для выбора и оценки Featured Snippets. Система анализирует топовые результаты поиска, чтобы предсказать, какие термины должны быть в ответе (Answer Terms). Затем она оценивает отрывки текста, учитывая совпадение с запросом, наличие предсказанных терминов ответа (консенсус топа), качество исходного сайта, форматирование и языковую модель контента.
  • US9940367B1
  • 2018-04-10
  • SERP

  • Семантика и интент

  • EEAT и качество

Как Google определяет ключевые аспекты (фасеты) сущности для организации и диверсификации поисковой выдачи
Google использует систему для автоматической идентификации различных «аспектов» (подтем или фасетов) сущности в запросе. Анализируя логи запросов и базы знаний, система определяет, как пользователи исследуют информацию. Затем эти аспекты ранжируются по популярности и разнообразию и используются для организации результатов поиска в структурированном виде (mashup), облегчая пользователю навигацию и исследование темы.
  • US8458171B2
  • 2013-06-04
  • Семантика и интент

  • SERP

  • Поведенческие сигналы

Как Google персонализирует поисковую выдачу, анализируя историю кликов и поведение пользователя на сайте
Google использует механизм для персонализации поисковой выдачи на основе истории взаимодействия пользователя с результатами поиска. Система отслеживает, какие сайты пользователь выбирает, как долго он на них остается (Dwell Time), частоту и контекст выбора. Основываясь на этих данных, предпочитаемые пользователем ресурсы повышаются в ранжировании при его последующих запросах.
  • US9037581B1
  • 2015-05-19
  • Персонализация

  • Поведенческие сигналы

  • SERP

Как Google фильтрует персонализированные предложения запросов на основе контента просматриваемой страницы
Google использует механизм для генерации предложений следующего запроса после того, как пользователь покинул страницу выдачи. Система создает кандидатов на основе истории поиска пользователя, а затем фильтрует их, проверяя релевантность контенту страницы, которую пользователь просматривает в данный момент. Это гарантирует, что предложения соответствуют как интересам пользователя, так и текущему контексту просмотра.
  • US8392435B1
  • 2013-03-05
  • Персонализация

  • Поведенческие сигналы

  • SERP

Как Google персонализирует поиск, повышая в выдаче объекты, которые пользователь ранее явно отметил как интересные
Google использует механизм персонализации поисковой выдачи. Если пользователь явно отметил определенный объект (например, место, компанию, веб-страницу) как интересующий его, этот объект получит значительное повышение в ранжировании при последующих релевантных запросах этого пользователя. Уровень повышения зависит от степени интереса, указанной пользователем.
  • US20150242512A1
  • 2015-08-27
  • Персонализация

  • Поведенческие сигналы

  • SERP

Как Google решает, показывать ли промежуточную страницу (превью) или направлять пользователя сразу на сайт при клике в Поиске по картинкам
Google анализирует, насколько хорошо веб-страница представляет выбранное изображение («image-centricity»). Если изображение на странице качественное, заметное и удовлетворяет интент пользователя (на основе статических и поведенческих данных), Google направляет трафик из Поиска по картинкам напрямую на сайт. В противном случае, Google показывает промежуточный экран (Image Overlay).
  • US9135317B2
  • 2015-09-15
  • Поведенческие сигналы

  • Мультимедиа

  • Семантика и интент

Как Google использует поведение пользователей в веб-поиске для динамической категоризации локальных бизнесов
Google динамически формирует категории для бизнесов, основываясь на том, как пользователи ищут их (используемые ключевые слова и клики) в веб-поиске и голосовом поиске. Эти данные формируют иерархическое понимание типов бизнеса. Эта структура затем используется для повышения точности распознавания названий компаний в голосовых запросах.
  • US8041568B2
  • 2011-10-18
  • Local SEO

  • Поведенческие сигналы

  • Семантика и интент

seohardcore