SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google использует визуальное сходство для связывания изображений и видео, кластеризации выдачи и обогащения метаданных

IDENTIFYING RESPONSIVE RESOURCES ACROSS STILL IMAGES AND VIDEOS (Идентификация релевантных ресурсов среди статичных изображений и видео)
  • US9652462B2
  • Google LLC
  • 2011-04-29
  • 2017-05-16
  • Мультимедиа
  • SERP
  • Семантика и интент
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google анализирует визуальное содержимое изображений и ключевых кадров видео для выявления сходств. Это позволяет связывать разнотипный контент, даже если у него мало текстовых данных. Система использует эти связи для переноса метаданных (например, ключевых слов или геопозиции) от одного ресурса к другому, а также для кластеризации и смешивания изображений и видео в результатах поиска.

Описание

Какую проблему решает

Патент решает две основные проблемы мультимедийного поиска. Во-первых, сложность идентификации и ранжирования изображений и видео, у которых недостаточно ассоциированного текста или метаданных. Во-вторых, проблему дублирования в поисковой выдаче, когда множество визуально похожих ресурсов отвечают на один запрос. Изобретение улучшает поиск за счет кросс-модального анализа и повышает качество SERP за счет кластеризации и переноса метаданных.

Что запатентовано

Запатентована система, выполняющая две ключевые функции. Первая (описана в Description) — это определение визуального сходства между статичными изображениями и видео путем сравнения визуальных признаков (features) и сохранение этих связей. Вторая (описана в Claims) — это метод кластеризации результатов поиска в реальном времени: группировка визуально похожих медиафайлов и выбор канонического элемента (canonical digital image) для каждого кластера на основе его поискового ранга (search rank).

Как это работает

Система работает в двух основных режимах:

  • Офлайн-ассоциация (по Description): Система анализирует медиафайлы. Из видео извлекаются репрезентативные кадры (representative frames). Из изображений и кадров извлекаются визуальные признаки. Если сходство превышает порог, ресурсы ассоциируются в базе данных (Association Data Store). Метаданные могут передаваться между связанными ресурсами (Metadata Augmentation).
  • Онлайн-кластеризация (по Claims): Получив запрос, система находит релевантные изображения/видео. Затем, в реальном времени (после запроса, но до показа выдачи), она извлекает и сравнивает их признаки, формирует визуальные кластеры и выбирает для каждого кластера канонический элемент на основе его search rank.

Актуальность для SEO

Высокая. Понимание визуального контента с помощью компьютерного зрения и мультимодальных моделей (как MUM) является ключевым направлением развития Google. Механизмы кросс-модального поиска, визуальной кластеризации (для обеспечения разнообразия выдачи) и обогащения метаданных активно используются в Google Images, Google Videos и основном поиске.

Важность для SEO

Патент имеет высокое значение для SEO (8.5/10). Он раскрывает механизмы, влияющие как на ранжирование (через обогащение метаданных), так и на представление контента (через кластеризацию и каноникализацию). Понимание того, что search rank определяет видимость в кластере, а визуальные связи позволяют передавать метаданные, критически важно для оптимизации изображений и видео, подчеркивая важность уникальности и качества визуальных активов.

Детальный разбор

Термины и определения

Association Data Store (Хранилище данных ассоциаций)
База данных, хранящая информацию о связях между изображениями и видео, которые были определены как визуально похожие, а также силу этой связи (strength of relationship).
Canonical digital image (Каноническое цифровое изображение)
Изображение (или репрезентативный кадр видео), выбранное системой для представления целого кластера визуально похожих результатов. Согласно Claim 1, выбор основан на поисковом ранге (search rank).
Features (Признаки)
Визуальные характеристики, извлекаемые из изображений и видеокадров для сравнения. Упоминаются алгоритмы SIFT, SURF, GLOH, а также признаки вроде краев, углов, цвета и сигнатур лиц (face signatures).
Metadata Augmentation (Аугментация/Обогащение метаданных)
Процесс переноса метаданных (например, геолокации, ключевых слов, ассоциированных запросов) от одного ресурса к другому, если они визуально связаны.
Representative Frames (Репрезентативные кадры)
Подмножество кадров видео, выбранное для суммирования его содержания. Извлекаются путем анализа сцен и границ планов (shot boundaries).
Scene Score (G(s)) (Оценка сцены)
Метрика для оценки важности сцены в видео, основанная на ее репрезентативности, а также на наличии движения (M(s)) и аудио (A(s)).
Strength of relationship (Сила связи)
Метрика, оценивающая степень визуального сходства между изображением и видео.

Ключевые утверждения (Анализ Claims)

Патент описывает как офлайн-процессы ассоциации (в Description), так и онлайн-процессы кластеризации (в Claims). Финальные Claims (B2) сосредоточены на онлайн-кластеризации.

Claim 1 (Независимый пункт): Описывает метод обработки поискового запроса путем кластеризации результатов в реальном времени.

  1. Система получает поисковый запрос.
  2. Получает набор цифровых изображений, релевантных запросу.
  3. Критический момент 1: После получения запроса (т.е. в реальном времени) система извлекает признаки (features) из каждого релевантного изображения.
  4. Критический момент 2: До предоставления страницы результатов (SERP) система выполняет:
    1. Сравнение признаков каждого изображения с другими в наборе.
    2. Назначение каждого изображения в кластер на основе этого визуального сравнения.
    3. Выбор канонического цифрового изображения (canonical digital image) для каждого кластера на основе поискового ранга (search rank) этого изображения.
  5. Система предоставляет SERP, включающую представление канонического изображения для кластеров.

Ядро изобретения — динамическая визуальная кластеризация результатов, где группировка основана на визуальном сравнении, но выбор представителя кластера (канонического элемента) основан на его стандартном поисковом ранге.

Claim 2 (Зависимый от 1): Уточняет, что каноническим элементом может быть выбрано видео, и в этом случае его представление — это эталонный кадр (reference frame) этого видео.

Claim 4 (Зависимый от 1): Детализирует процесс выбора видео в качестве канонического элемента, подтверждая использование методов суммирования видео (идентификация репрезентативных сцен и кадров) для эффективного сравнения видео с изображениями.

Claim 6 (Зависимый от 1): Уточняет, что выбор канонического изображения может быть основан на определении того, что оно является наиболее визуально похожим на другие изображения в кластере (визуальный центр кластера, концепция VisualRank). (Примечание: Это предлагает альтернативный или дополнительный метод к выбору на основе search rank из Claim 1).

Где и как применяется

Изобретение связывает офлайн-процессы анализа контента с онлайн-процессами формирования выдачи.

INDEXING – Индексирование и извлечение признаков
На этом этапе происходит офлайн-анализ (по Description):

  • Анализ видео, извлечение Representative Frames.
  • Извлечение визуальных Features из изображений и кадров.
  • Вычисление Strength of relationship и сохранение связей в Association Data Store.
  • Аугментация метаданных: перенос Metadata (геолокация, ключевые слова) между связанными ресурсами.

RANKING – Ранжирование
Система определяет базовый search rank для ресурсов. Аугментированные метаданные могут использоваться для улучшения ранжирования контента, у которого изначально было мало собственных данных.

METASEARCH – Метапоиск и Смешивание / RERANKING – Переранжирование
Основное применение патента на этапе формирования SERP (по Claims и Description):

  • Смешивание (Blending): Использование Association Data Store для добавления связанных ресурсов в выдачу (например, добавление видео в результаты поиска по картинкам).
  • Кластеризация (Clustering): Система в реальном времени кластеризует результаты на основе визуального сходства.
  • Каноникализация: Выбирается Canonical digital image для представления кластера, преимущественно на основе search rank.

На что влияет

  • Типы контента: Статичные изображения и видео.
  • Специфические запросы: Запросы, где визуальная составляющая является ключевой (товары, достопримечательности, персоны) и запросы, возвращающие много визуально похожих результатов.
  • Ниши и тематики: E-commerce (фото товаров и видеообзоры), Travel/Local (связывание фото и видео локаций, использование геолокации), Медиа (постеры и трейлеры).

Когда применяется

  • Офлайн-процесс (Ассоциация): Постоянно во время индексирования мультимедийного контента.
  • Онлайн-процесс (Кластеризация): При обработке запросов к визуальному поиску (например, Google Images) для организации выдачи и дедупликации.
  • Онлайн-процесс (Смешивание): Когда система идентифицирует сильные кросс-модальные связи и решает обогатить выдачу.

Пошаговый алгоритм

Процесс А: Офлайн-ассоциация и обогащение (на основе Description)

  1. Сбор данных: Получение набора изображений и видео.
  2. Обработка видео (Извлечение кадров):
    1. Идентификация границ планов (Shot Boundaries) путем сравнения смежных кадров.
    2. Объединение планов в сцены на основе схожести.
    3. Кластеризация сцен и выбор репрезентативных сцен (используя оценку G(s), учитывающую движение и аудио).
    4. Извлечение репрезентативного кадра (Representative Frame) из каждой сцены.
  3. Извлечение признаков: Извлечение визуальных Features (SIFT, SURF и т.д.) из изображений и кадров. Может включать категоризацию контента для выбора оптимального метода.
  4. Сравнение и Ассоциация:
    1. Сравнение признаков изображения с признаками кадров видео (например, используя хэш-ключи и расстояние Хэмминга).
    2. Вычисление Strength of relationship. Если она превышает порог, ресурсы считаются связанными.
  5. Сохранение и Обогащение:
    1. Запись связей в Association Data Store.
    2. Аугментация метаданных: копирование Metadata между связанными ресурсами.

Процесс Б: Онлайн-обработка запроса и кластеризация (на основе Claims)

  1. Получение запроса и результатов: Определение набора релевантных изображений (и видео) и их search rank.
  2. Извлечение признаков (Real-time): Извлечение Features из релевантных результатов.
  3. Сравнение и Кластеризация (Real-time): Сравнение признаков результатов между собой и группировка визуально похожих элементов в кластеры.
  4. Выбор канонического элемента: Для каждого кластера выбирается Canonical digital image. Выбор основывается преимущественно на наивысшем search rank среди элементов кластера.
  5. Формирование SERP: Генерация страницы результатов, где кластеры представлены их каноническими элементами.

Какие данные и как использует

Данные на входе

  • Мультимедиа факторы (Визуальные данные): Пиксельные данные изображений и видеокадров. Используются для извлечения визуальных признаков (Features), таких как края, углы, цвета, текстуры, дескрипторы (SIFT, SURF), сигнатуры лиц.
  • Мультимедиа факторы (Аудио и Движение): Аудиодорожка (A(s)) и движение в кадре (M(s)) используются для анализа структуры видео и выбора репрезентативных сцен.
  • Контентные/Текстовые факторы (Metadata): Текст, окружающий медиа, анкорный текст ссылок, метки (Labels), комментарии, текст, извлеченный с помощью OCR. Используются для категоризации и аугментации.
  • Пользовательские/Поведенческие факторы: Текст запросов (query text) из логов, связанных с ресурсом. Используется для категоризации и аугментации.
  • Географические факторы (Metadata): Данные о геолокации. Могут передаваться между связанными ресурсами.
  • Системные данные: Search rank (поисковый ранг) результата. Критически важен для выбора канонического элемента в кластере.

Какие метрики используются и как они считаются

  • Расстояние между кадрами (d(FA, FB)): Метрика визуального различия между двумя кадрами. Используется для определения границ планов. В патенте приводится формула: d(FA,FB)=1−FA⋅FB∣FA∣∣FB∣d(F_A, F_B) = 1 - \frac{F_A \cdot F_B}{|F_A||F_B|}
  • Сходство планов/сцен (S(s1, s2)): Рекурсивная формула для определения сходства между двумя последовательностями кадров.
  • Оценка сцены (G(s)): Метрика для оценки важности сцены. Учитывает репрезентативность/уникальность сцены, а также может включать оценку движения (M(s)) и аудио (A(s)). G(s)=wrep(∑j∣S(s,sj)−μ∣)+wmotionM(s)+waudioA(s)G(s) = w_{rep}(\sum_{j} |S(s, s_j) - \mu|) + w_{motion}M(s) + w_{audio}A(s)
  • Strength of relationship (Сила связи): Оценка визуального сходства. Может рассчитываться как расстояние Хэмминга между хэшами признаков (используя LSH или другие методы).

Выводы

  1. Google глубоко анализирует визуальный контент для установления связей: Система не полагается только на текст. Она активно анализирует пиксели и сравнивает визуальные признаки (features) для понимания содержания и установления кросс-модальных связей между изображениями и видео.
  2. Аугментация метаданных (Metadata Augmentation) как фактор ранжирования: Критически важный механизм. Если контент визуально связан, система может передавать между ним метаданные (ключевые слова, геолокацию). Это позволяет ранжировать контент, у которого изначально не было достаточных текстовых сигналов.
  3. Эффективная обработка видео через суммирование: Google анализирует видео не покадрово, а использует сложные техники выбора репрезентативных кадров (Representative Frames) через анализ сцен, планов, движения и аудио.
  4. Визуальная кластеризация в реальном времени: Патент (Claims) защищает метод кластеризации визуально похожих результатов непосредственно в момент запроса (query-time). Это используется для организации выдачи и дедупликации.
  5. Ранг определяет видимость в кластере: Ключевой вывод из Claim 1: хотя кластеризация основана на визуальном сходстве, canonical digital image (представитель кластера) выбирается на основе поискового ранга (search rank). Чтобы изображение представляло кластер, оно должно иметь высокий ранг.

Практика

Best practices (это мы делаем)

  • Максимизация базового Search Rank: Поскольку канонический элемент выбирается по search rank, необходимо применять все стандартные методы SEO для изображений и видео (релевантность страницы хоста, авторитетность сайта, alt-текст, скорость загрузки). Цель — иметь наивысший рейтинг среди визуально похожих ресурсов.
  • Создание уникального визуального контента: Используйте уникальные, высококачественные изображения. Это повышает шанс сформировать собственный кластер, где ваше изображение будет каноническим, вместо того чтобы быть скрытым за более авторитетным конкурентом, использующим то же стоковое фото.
  • Обеспечение визуальной синергии активов: Создавайте изображения и видео, которые визуально связаны (например, фото продукта и его видеообзор с тем же продуктом в кадре). Это усиливает кросс-модальные связи и способствует аугментации метаданных между вашими ресурсами.
  • Оптимизация ключевых кадров и тамбнейлов видео: Поскольку Google анализирует representative frames, убедитесь, что важные моменты видео и тамбнейл визуально информативны, четкие и качественные.
  • Добавление полных метаданных (Особенно геолокации): Максимально насыщайте медиафайлы метаданными (включая геолокацию, Schema.org). Это не только помогает их ранжированию, но и позволяет системе распространять эти данные на связанные ресурсы через механизм аугментации.

Worst practices (это делать не надо)

  • Использование исключительно стоковых или скопированных изображений: Такие изображения будут кластеризованы вместе с конкурентами. Если у конкурента выше search rank, его версия станет канонической, а ваша будет скрыта.
  • Манипуляции для псевдо-уникальности: Незначительные изменения (зеркалирование, легкое кадрирование) могут быть неэффективны, так как алгоритмы извлечения признаков (SIFT, SURF), упомянутые в патенте, устойчивы к таким трансформациям и все равно определят сходство.
  • Использование кликбейтных тамбнейлов: Использование миниатюр, которые визуально не соответствуют содержанию видео или связанным изображениям. Это нарушает процесс ассоциации и ухудшает пользовательский опыт.
  • Низкое качество медиафайлов: Размытый или низкокачественный контент затрудняет извлечение признаков, что может привести к некорректным ассоциациям или игнорированию контента системой.

Стратегическое значение

Патент подтверждает стратегию Google на глубокое понимание контента за пределами текста и создание единого индекса, где тип контента вторичен. Для SEO это означает необходимость интегрированного подхода к созданию контента, где текст, изображения и видео работают вместе. Стратегия должна быть направлена на доминирование в визуальных кластерах (за счет высокого search rank и уникальности) и использование кросс-модальных связей для усиления ранжирования.

Практические примеры

Сценарий 1: Доминирование в кластере E-commerce (на основе Claims)

  1. Ситуация: Пользователь ищет "Кроссовки Nike Air Max 270 black". 50 сайтов используют одно и то же официальное фото от Nike.
  2. Обработка: Google находит эти 50 результатов. В реальном времени система анализирует их визуальные признаки и объединяет в один кластер.
  3. Выбор канонического элемента: Система сравнивает search rank всех 50 результатов. Сайт Nike.com имеет наивысший рейтинг.
  4. Результат: В выдаче Google Images отображается один результат для этого фото, ведущий на Nike.com. Остальные скрыты.
  5. Действие для SEO: Небольшому магазину необходимо использовать собственные уникальные фотографии товара, чтобы сформировать отдельный визуальный кластер и получить видимость.

Сценарий 2: Обогащение метаданных в локальном поиске (на основе Description)

  1. Ситуация: Ресторан загружает видеообзор нового блюда без геолокации. Отдельно есть фотографии этого же блюда с точными гео-тегами.
  2. Обработка: В процессе индексирования Google анализирует фото и кадры видео и обнаруживает сильное визуальное сходство.
  3. Результат: Система ассоциирует видео с фото и переносит геоданные с фото на видео (Аугментация метаданных). Видео получает возможность ранжироваться в локальном поиске или на картах по запросам, связанным с этим местоположением.

Вопросы и ответы

Как Google определяет, похожи ли изображение и видео?

Система не сравнивает изображение со всем видео. Она разбивает видео на сцены и выбирает репрезентативные кадры (representative frames). Затем извлекаются визуальные признаки (features) из изображения и этих кадров. Сходство определяется путем сравнения этих признаков, например, с помощью методов хеширования и расчета расстояния (Hamming distance). Если сходство превышает порог, ресурсы считаются связанными.

Что такое "каноническое цифровое изображение" и как оно выбирается?

Это изображение или видео, которое система выбирает для представления целой группы (кластера) визуально похожих результатов. Согласно Claim 1 патента, выбор основывается на поисковом рейтинге (search rank). Среди всех визуально похожих ресурсов в кластере каноническим станет тот, у которого самый высокий базовый рейтинг в поиске.

Когда происходит кластеризация: во время индексирования или во время запроса?

Запатентованный метод (Claim 1) указывает, что процесс кластеризации, описанный в нем, происходит в реальном времени: после получения поискового запроса и до отображения результатов. Однако процессы ассоциации и обогащения метаданных, описанные в Description, происходят офлайн во время индексирования.

Что такое "аугментация метаданных" и как она влияет на SEO?

Это процесс обогащения данных одного ресурса за счет другого. Если система определяет, что изображение и видео визуально похожи, она может скопировать метаданные (ключевые слова, геотеги, ассоциированные запросы). Это напрямую влияет на SEO, позволяя контенту с недостаточным текстовым описанием ранжироваться лучше за счет данных, унаследованных от связанного ресурса.

Может ли видео представлять кластер изображений?

Да, патент (Claim 2) явно указывает, что видео может быть выбрано в качестве канонического ресурса для кластера. В этом случае оно будет представлено в выдаче своим эталонным кадром (reference frame), который обычно является миниатюрой (thumbnail) или ключевым кадром.

Что делать, если мои изображения постоянно "склеиваются" с изображениями конкурента, и он всегда в топе?

Это означает, что ваши изображения визуально слишком похожи, и у конкурента выше search rank. Вам нужно работать в двух направлениях: 1) Повышать базовый рейтинг ваших изображений и страниц, на которых они размещены; 2) Создавать уникальный визуальный контент, который не будет кластеризован вместе с конкурентом.

Как оптимизировать видео, чтобы система правильно поняла его содержание?

Необходимо обеспечить четкую визуальную структуру и высокое качество видео. Система анализирует границы планов и сцены для выбора representative frames, используя даже аудио и движение в кадре. Также критически важно оптимизировать миниатюру (thumbnail) видео, так как она часто используется для представления видео в кластерах и для установления визуальных связей.

Как этот патент влияет на использование стоковых фотографий?

Он значительно усложняет ранжирование для сайтов, использующих одинаковые стоковые фото. Все они попадут в один визуальный кластер. Видимость получит только сайт с наивысшим search rank (обычно самый авторитетный). Для успешного SEO в визуальном поиске критически важно создавать собственный уникальный контент.

Использует ли Google распознавание лиц для связывания фото и видео?

Да, патент упоминает это как один из возможных методов. Система может определить категорию контента. Если она обнаруживает лицо (используя face signatures) и в изображении, и в кадре видео, она может использовать специализированные алгоритмы распознавания лиц для более точного сравнения.

Влияет ли этот патент только на Google Image Search?

Нет. Технологии влияют и на обычный веб-поиск (Universal Search), и на Поиск по видео. Система может подмешивать видео в результаты поиска по картинкам (и наоборот), а также использовать аугментированные метаданные для ранжирования мультимедийного контента в любой вертикали поиска.

Похожие патенты

Как Google комбинирует визуальное сходство и семантические метки для улучшения поиска по картинке (Visual Search)
Google использует систему поиска по изображению, которая сочетает анализ визуальных характеристик и семантических меток. Система генерирует высокоточные метки (High Confidence Labels) для изображения, анализируя текст, связанный с визуально похожими картинками в интернете. Затем она ранжирует кандидатов, используя модель визуального сходства, обученную на основе человеческих оценок, и применяет правила фильтрации для обеспечения однородности результатов.
  • US8429173B1
  • 2013-04-23
  • Семантика и интент

  • Мультимедиа

  • SERP

Как Google агрегирует и ранжирует пользовательские метки для идентификации объектов в Визуальном поиске (Google Lens)
Google использует этот механизм для повышения точности идентификации объектов при поиске по изображению. Система находит множество визуально похожих изображений, загруженных пользователями (UGC), и анализирует их текстовые метки. Метки группируются по смыслу, а затем эти группы ранжируются на основе совокупной визуальной релевантности. Это позволяет определить наиболее вероятное название объекта, опираясь на коллективное мнение.
  • US9424279B2
  • 2016-08-23
  • Мультимедиа

  • Семантика и интент

  • SERP

Как Google кластеризует результаты поиска по картинкам и выбирает репрезентативное (каноническое) изображение для показа
Google организует результаты поиска изображений в иерархические кластеры на основе визуального сходства. Для каждого кластера выбирается «каноническое изображение» — часто это изображение с самым высоким исходным рейтингом или наиболее визуально авторитетное (с использованием метрик типа VisualRank). Эта структура определяет, как изображения группируются и какое изображение получает максимальную видимость в интерфейсе Google Images.
  • US8352465B1
  • 2013-01-08
  • Мультимедиа

  • SERP

Как Google использует визуальные цитаты и обратную связь для генерации и уточнения ответов в мультимодальном поиске
Google генерирует ответы на мультимодальные запросы (изображение + текст), находя визуально похожие изображения в интернете и используя текст с их исходных страниц как основу для LLM. Система показывает эти изображения как «визуальные цитаты» для подтверждения ответа и позволяет пользователям исключать нерелевантные источники, чтобы мгновенно уточнить сгенерированный результат.
  • US20240378236A1
  • 2024-11-14
  • Мультимедиа

  • EEAT и качество

  • Ссылки

Как Google динамически выбирает лучший кадр из видео (thumbnail) и точку воспроизведения под конкретный запрос пользователя
Google использует систему для динамического выбора thumbnail для видео в результатах поиска. Система анализирует запрос пользователя и содержание каждого кадра видео, преобразуя их в числовые векторы в общем семантическом пространстве. Кадр, наиболее близкий по смыслу к запросу, выбирается в качестве репрезентативного (thumbnail). Ссылка в выдаче может вести непосредственно к этому моменту в видео (Deep Linking).
  • US20160378863A1
  • 2016-12-29
  • Семантика и интент

  • Мультимедиа

  • Индексация

Популярные патенты

Как Google определяет связанность документов с использованием Co-citation, анализа текста вокруг ссылок и паттернов пользовательского доступа
Google использует методы для ограничения результатов поиска на основе заданного контекста (например, набора URL-адресов или категории). Патент детализирует, как система определяет «связанность» между документами, используя такие методы, как анализ совместного цитирования (co-citation), анализ текста, окружающего ссылки в цитирующих документах, и анализ корреляции паттернов доступа пользователей.
  • US7305380B1
  • 2007-12-04
  • Ссылки

  • SERP

  • Поведенческие сигналы

Как Google обрабатывает клики по ссылкам на мобильные приложения (App Deep Links) в результатах поиска
Google использует механизм клиентской обработки результатов поиска, ведущих в нативные приложения. Если у пользователя не установлено нужное приложение, система на устройстве автоматически подменяет ссылку приложения (App Deep Link) на эквивалентный веб-URL. Это гарантирует доступ к контенту через браузер и обеспечивает бесшовный пользовательский опыт.
  • US10210263B1
  • 2019-02-19
  • Ссылки

  • SERP

Как Google находит фактические ответы, начиная с потенциальных ответов и связывая их с запросами пользователей (Reverse Question Answering)
Google использует метод «обратного ответа на вопрос» для эффективного поиска фактов. Вместо глубокого анализа запроса система начинает с идентификации потенциальных ответов (например, дат, измерений) в индексе. Затем она определяет, для каких запросов эти ответы релевантны, анализируя, какие документы высоко ранжируются и получают клики по этим запросам. Это позволяет точно сопоставлять факты с разнообразными формулировками вопросов.
  • US9116996B1
  • 2015-08-25
  • Поведенческие сигналы

  • Семантика и интент

Как Google использует распределение кликов в выдаче для определения брендовых (навигационных) и общих (тематических) запросов
Google анализирует поведение пользователей в поисковой выдаче для классификации интента запроса. Если клики сконцентрированы на одном результате (низкое разнообразие, высокая частота), запрос классифицируется как навигационный или брендовый (Data-Creator Targeting). Если клики распределены по разным сайтам, запрос считается общим (Content Targeting). Эта классификация используется для адаптации поисковой выдачи.
  • US20170068720A1
  • 2017-03-09
  • Семантика и интент

  • Поведенческие сигналы

  • SERP

Как Google автоматически выбирает категории и контент для страниц сущностей, комбинируя данные о поведении пользователей и Knowledge Graph
Google использует механизм для автоматического создания страниц о сущностях (например, о фильмах или персонажах). Система определяет, какие категории (свойства) сущности наиболее интересны пользователям, сравнивая данные из Knowledge Graph с данными о том, что пользователи ищут или смотрят вместе с этой сущностью. Затем она наполняет эти категории популярным контентом.
  • US11036743B2
  • 2021-06-15
  • Knowledge Graph

  • Семантика и интент

  • Поведенческие сигналы

Как Google ранжирует сущности (например, фильмы или книги), используя популярность связанных веб-страниц и поисковых запросов в качестве прокси-сигнала
Google использует механизм для определения популярности контентных сущностей (таких как фильмы, телешоу, книги), когда прямые данные о потреблении недоступны. Система идентифицирует авторитетные «эталонные веб-страницы» (например, страницы Википедии) и связанные поисковые запросы. Затем она измеряет популярность сущности, анализируя объем трафика на эти эталонные страницы и частоту связанных запросов в поиске, используя эти данные как прокси-сигнал для ранжирования сущности.
  • US9098551B1
  • 2015-08-04
  • EEAT и качество

  • Поведенческие сигналы

  • SERP

Как Google определяет ключевую тематику зданий и адресов, используя клики пользователей для показа релевантной рекламы
Google использует этот механизм для понимания основного назначения физического местоположения (адреса или здания). Система анализирует все бизнесы в этой локации и определяет, какие поисковые запросы чаще всего приводят к кликам по их листингам. Самый популярный запрос используется как доминирующее ключевое слово для выбора релевантной рекламы, когда пользователи ищут этот адрес или взаимодействуют с ним на Картах или в Street View.
  • US20120278171A1
  • 2012-11-01
  • Local SEO

  • Семантика и интент

  • Поведенческие сигналы

Как Google автоматически генерирует блоки "Связанные ссылки" и "Похожие запросы", анализируя контент страницы при загрузке
Патент описывает систему для динамической генерации виджетов связанных ссылок. При загрузке страницы система извлекает текст (заголовок, контент, запрос из реферера), определяет наиболее важные ключевые слова с помощью глобального репозитория (Keyword Repository), выполняет поиск по этим словам (часто в пределах того же домена) и отображает топовые результаты для улучшения навигации.
  • US9129009B2
  • 2015-09-08
  • Ссылки

  • Семантика и интент

  • Техническое SEO

Как Google интегрирует поиск в инструменты создания контента и использует распространение ссылок для расчета репутации автора
Google разработал систему (UDS), интегрирующую поиск в инструменты создания контента (Email, блоги, форумы). Система автоматически уточняет запросы на основе контекста и профилей пользователей. Если автор вставляет ссылку, а читатель кликает по ней, Google использует это взаимодействие для расчета «оценки репутации» автора и как поведенческий сигнал качества контента.
  • US7844603B2
  • 2010-11-30
  • Ссылки

  • Поведенческие сигналы

  • EEAT и качество

Как Google использует исторические данные о кликах по Сущностям для ранжирования нового или редко посещаемого контента
Google решает проблему «холодного старта» для новых страниц, у которых нет собственных поведенческих данных. Система агрегирует историю кликов на уровне Сущностей (Entities). Если сущности, упомянутые на новой странице, исторически имеют высокий CTR по целевому запросу, страница получает бустинг в ранжировании, наследуя поведенческие сигналы через эти сущности.
  • US10303684B1
  • 2019-05-28
  • Поведенческие сигналы

  • Семантика и интент

  • SERP

seohardcore