SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google использует визуальный анализ кликов по картинкам для понимания интента запроса и переранжирования выдачи

QUERY CATEGORIZATION BASED ON IMAGE RESULTS (Категоризация запросов на основе результатов поиска по изображениям)
  • US9836482B2
  • Google LLC
  • 2009-12-29
  • 2017-12-05
  • Семантика и интент
  • Поведенческие сигналы
  • SERP
  • Мультимедиа
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google анализирует визуальное содержимое изображений, которые пользователи чаще всего выбирают в ответ на определенный запрос. На основе этого анализа (наличие лиц, текста, графиков, доминирующих цветов) система определяет категорию запроса (например, «запрос о конкретном человеке» или «запрос на определенный цвет»). Эти категории затем используются для переранжирования будущих результатов поиска, повышая изображения, которые визуально соответствуют выявленному интенту.

Описание

Какую проблему решает

Патент решает проблему улучшения релевантности, качества и разнообразия результатов поиска по изображениям. Традиционные методы ранжирования изображений часто полагаются в основном на текстовые сигналы (текст вокруг изображения, alt text, заголовок страницы). Этот патент предлагает метод для более глубокого понимания интента запроса путем анализа визуального контента тех изображений, которые пользователи сами считают релевантными (на основе поведенческих данных). Это позволяет улучшить выдачу даже для многоязычных или неоднозначных запросов, где текстового анализа недостаточно.

Что запатентовано

Запатентована система для категоризации поисковых запросов на основе визуального анализа результатов поиска по изображениям. Ключевая особенность системы в том, что она анализирует не все изображения в выдаче, а только те, которые имеют достаточное количество положительных поведенческих сигналов (например, кликов). Визуальные характеристики этих отобранных изображений (аннотации) используются для определения категории запроса с помощью классификаторов машинного обучения. Полученная категория затем применяется для переранжирования результатов поиска.

Как это работает

Система работает в несколько этапов:

  • Сбор данных и Фильтрация: Собираются результаты поиска по изображениям для запроса и соответствующие User Behavior Data (например, клики, время просмотра). Отбираются только те изображения, чьи поведенческие данные удовлетворяют определенному порогу.
  • Аннотирование: Отобранные изображения анализируются различными Image Annotators для извлечения визуальных характеристик (например, наличие лиц, текста, доминирующих цветов, является ли это скриншотом).
  • Классификация: Запрос и полученные аннотации передаются на вход Query Classifiers (моделям машинного обучения), которые определяют категорию запроса (например, «запрос о конкретном человеке», «цветовой запрос»).
  • Применение: При последующих поисках по этому же или похожему запросу система использует эту категорию для переранжирования (re-ordering) результатов, повышая те изображения, которые визуально соответствуют категории.

Актуальность для SEO

Высокая. Понимание интента пользователя и использование машинного обучения для анализа визуального контента являются центральными элементами современного поиска. Методы, описанные в патенте, напрямую связаны с улучшением качества поиска по изображениям и пониманием запросов за пределами простого текста, что критически важно в эпоху визуального поиска и интеграции мультимедиа в основную веб-выдачу.

Важность для SEO

Патент имеет высокое значение (8/10) для SEO, особенно для стратегий продвижения в поиске по изображениям и для сайтов с большим количеством визуального контента. Он демонстрирует, что Google активно использует комбинацию поведенческих факторов и визуального анализа для определения реального интента. Если визуальные характеристики изображений на сайте не соответствуют категории, которую Google присвоил запросу (основываясь на том, что кликают пользователи), эти изображения могут быть понижены в ранжировании, даже если они хорошо оптимизированы текстуально.

Детальный разбор

Термины и определения

Categorizer Engine (Механизм категоризации)
Компонент системы, который анализирует результаты поиска по изображениям и поведенческие данные для определения категорий запроса.
Click Data (Данные о кликах)
Тип User Behavior Data. Включает информацию о том, как часто пользователи выбирают результат, а также продолжительность просмотра результата (dwell time). Упоминаются long click (длительный просмотр, индикатор релевантности) и short click (короткий просмотр, индикатор нерелевантности).
Image Annotators (Аннотаторы изображений)
Модули, которые анализируют визуальный контент изображения и извлекают специфические характеристики (аннотации). Примеры, указанные в патенте: Face Annotator, Fingerprint Annotator, Screenshot Annotator, Text Annotator, Graph/Chart Annotator, Dominant Color Annotator.
Image Annotations (Аннотации изображений)
Информация, извлеченная из визуального контента изображения. Например: количество и размер лиц, доминирующие цвета, наличие текста или графика, является ли изображение скриншотом, визуальный отпечаток (fingerprint).
Query Categories (Категории запросов)
Классификация интента запроса, определенная на основе анализа аннотаций изображений, получивших положительный отклик пользователей. Примеры: Single Person Query, Diverse/Homogenous Query, Color Query.
Query Classifiers (Классификаторы запросов)
Модули, основанные на машинном обучении (в патенте упоминается AdaBoost), которые принимают на вход запрос и аннотации изображений и определяют категорию запроса.
Rank Modifier Engine (Механизм модификации ранжирования)
Компонент, который использует категории запросов для корректировки оценок ранжирования (IR scores) и переупорядочивания результатов поиска.
User Behavior Data (Поведенческие данные пользователя)
Данные, которые указывают на взаимодействие пользователя с результатами поиска. Включают количество выборов (selections) изображения для данного запроса и Click Data.

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает основной метод категоризации и применения.

  1. Система получает изображения из первых результатов поиска в ответ на первый запрос. Каждое изображение связано с оценкой (score) и User Behavior Data (данные о взаимодействии пользователей с этим изображением как с результатом поиска по этому запросу).
  2. Система отбирает изображения (selected images), чьи User Behavior Data удовлетворяют пороговому значению.
  3. Система ассоциирует каждое выбранное изображение с аннотациями путем анализа его контента. Это включает:
    • Передачу выбранных изображений множеству различных компьютерных аннотаторов изображений (computer image annotators), каждый из которых визуально анализирует изображение для идентификации конкретных визуальных признаков.
    • Получение аннотаций от этих аннотаторов.
  4. Система передает первый запрос и полученные аннотации множеству различных классификаторов, сгенерированных системой машинного обучения (machine learning system generated classifiers). Это делается для ассоциирования запроса с одной или несколькими категориями, которые указывают на наличие конкретных визуальных признаков.
  5. Система получает второй запрос (такой же или похожий на первый).
  6. Система получает вторые изображения в ответ на второй запрос с начальным ранжированием (first rank).
  7. Система модифицирует ранжирование одного или нескольких вторых изображений на основе категорий, ассоциированных с первым запросом, что приводит к переупорядочиванию выдачи.

Ядро изобретения заключается в использовании визуального анализа (через аннотаторы) только тех изображений, которые пользователи посчитали релевантными (фильтрация по User Behavior Data), для определения интента запроса (через ML-классификаторы), и последующего использования этого интента для переранжирования выдачи.

Claim 3 (Зависимый от 1): Уточняет применение категории single person query. Если запрос категоризирован как запрос об одном человеке, система увеличивает оценки (scores) тех изображений в выдаче, чьи аннотации указывают на наличие одного лица (single face).

Claim 4 (Зависимый от 1): Уточняет применение категории diverse query (разнообразный запрос). Если запрос категоризирован как разнообразный, система увеличивает оценки тех изображений, чьи аннотации указывают на то, что изображение является разнообразным (diverse).

Claim 5 (Зависимый от 1): Уточняет применение категории text query (текстовый запрос). Если запрос категоризирован как текстовый, система увеличивает оценки тех изображений, чьи аннотации указывают на наличие текста.

Claim 7 (Зависимый от 1): Уточняет, что по крайней мере один из аннотаторов генерирует отпечаток (fingerprint) для изображения, который представляет собой сжатую форму его визуальных признаков.

Где и как применяется

Изобретение затрагивает несколько этапов поисковой архитектуры, используя данные, собранные на этапе взаимодействия с пользователем, и влияя на этапы понимания запросов и ранжирования.

INDEXING – Индексирование и извлечение признаков
На этом этапе Image Annotators могут использоваться для предварительного анализа визуального контента изображений и сохранения Image Annotations (визуальных признаков) в индексе. Это позволяет системе быстро получать эти данные во время ранжирования.

QUNDERSTANDING – Понимание Запросов
Это один из основных этапов применения патента. Система использует результаты поиска по изображениям и накопленные User Behavior Data для глубокого понимания интента запроса за пределами его текста. Categorizer Engine определяет Query Categories. Этот процесс может выполняться как офлайн (предварительный расчет категорий для популярных запросов), так и онлайн.

RANKING / RERANKING – Ранжирование и Переранжирование
На этом этапе Rank Modifier Engine использует рассчитанные Query Categories для корректировки IR scores результатов поиска. Если запрос категоризирован (например, как Color Query), система повышает в выдаче изображения, чьи визуальные аннотации соответствуют этой категории (например, изображения с соответствующим доминирующим цветом).

Входные данные:

  • Первый запрос.
  • Результаты поиска по изображениям для первого запроса (с оценками ранжирования).
  • User Behavior Data (клики, время просмотра) для этих результатов.

Выходные данные:

  • Image Annotations для выбранных изображений (промежуточные).
  • Query Categories для первого запроса (промежуточные).
  • Переранжированный набор результатов поиска для второго (похожего) запроса.

На что влияет

  • Типы контента: В первую очередь влияет на поиск по изображениям (Image Search). Может косвенно влиять на веб-поиск через смешивание результатов (Universal Search), если категоризация влияет на выбор изображений для отображения в основной выдаче.
  • Специфические запросы: Наибольшее влияние оказывается на неоднозначные запросы или запросы, где визуальный интент отличается от текстового. В патенте приводится пример запроса "red sea" (Красное море): система, проанализировав клики, поймет, что пользователи не ищут красные изображения, и не будет применять категорию Color Query (red).
  • Языковые и географические ограничения: Система работает независимо от языка запроса, так как анализирует визуальный контент, на который кликают пользователи. Например, она будет продвигать красные изображения по запросу "красное яблоко" на любом языке, если пользователи преимущественно кликают на красные яблоки.

Когда применяется

  • Условия работы алгоритма: Алгоритм категоризации активируется для запросов, по которым накоплено достаточное количество User Behavior Data.
  • Пороговые значения: Критическим является порог для User Behavior Data. Анализируются только те изображения, которые удовлетворяют этому порогу (например, были выбраны пользователями определенное количество раз или имеют высокий показатель long clicks).
  • Временные рамки: Категоризация может выполняться периодически офлайн или в реальном времени (онлайн). Применение категорий для переранжирования происходит во время выполнения запроса.

Пошаговый алгоритм

Процесс А: Категоризация запроса (Может выполняться Офлайн или Онлайн)

  1. Получение данных: Система получает первый запрос и соответствующие ему результаты поиска по изображениям. Для каждого результата извлекается связанная с ним User Behavior Data.
  2. Фильтрация по поведению: Отбираются изображения, чьи поведенческие данные удовлетворяют заданному порогу (например, достаточное количество кликов или long clicks).
  3. Визуальное аннотирование: Отобранные изображения передаются набору Image Annotators:
    • Face Annotator определяет количество и размер лиц.
    • Fingerprint Annotator создает визуальные отпечатки для сравнения схожести.
    • Screenshot/Text/Graph Annotators определяют тип контента.
    • Dominant Color Annotator определяет основные цвета.
  4. Сбор аннотаций: Система агрегирует все сгенерированные Image Annotations.
  5. Классификация запроса: Запрос и агрегированные аннотации передаются набору обученных Query Classifiers (например, на основе AdaBoost).
  6. Определение категории: Классификаторы выводят вероятности принадлежности запроса к различным категориям (например, Single Person Query, Color Query).
  7. Сохранение: Ассоциация между запросом и его категорией сохраняется в базе данных Query Categories для будущего использования.

Процесс Б: Применение категоризации при ранжировании (Онлайн)

  1. Получение запроса: Система получает второй запрос от пользователя.
  2. Проверка категории: Система проверяет, есть ли для этого запроса (или похожего на него) сохраненная категория в базе Query Categories.
  3. Получение результатов: Генерируется стандартный набор результатов поиска с исходными оценками ранжирования (IR scores).
  4. Переранжирование: Rank Modifier Engine корректирует оценки результатов на основе категории запроса. Например:
    • Если категория Single Person Query, повышаются изображения с одним лицом.
    • Если категория Color Query, повышаются изображения с соответствующим доминирующим цветом.
    • Если категория Diverse Query, система может способствовать разнообразию, анализируя кластеры отпечатков (fingerprints).
  5. Выдача результатов: Переупорядоченный набор результатов предоставляется пользователю.

Какие данные и как использует

Данные на входе

Патент фокусируется на использовании визуальных и поведенческих данных.

  • Мультимедиа факторы (Визуальный контент): Содержимое самих изображений является основным источником данных для аннотирования. Анализируются пиксели для определения лиц, цветов, текста, графиков и создания визуальных отпечатков.
  • Поведенческие факторы: Критически важные данные для фильтрации релевантных изображений. Используются User Behavior Data, включая:
    • Количество выборов (selections) результата пользователями.
    • Click Data: время просмотра (dwell time), long clicks, short clicks.
  • Системные данные: Исходные оценки ранжирования (IR scores), сгенерированные поисковой системой.

Какие метрики используются и как они считаются

  • Порог поведенческих данных: Минимальное значение User Behavior Data (например, количество кликов или метрика, основанная на long clicks), необходимое для того, чтобы изображение было использовано в процессе категоризации.
  • Аннотации (Визуальные метрики): Конкретные метрики, вычисляемые аннотаторами:
    • Количество лиц, размер лиц.
    • Визуальный отпечаток (Fingerprint).
    • Наличие/отсутствие текста, графика, признаков скриншота.
    • Доминирующий цвет.
  • Метрики кластеризации: Для определения разнообразия (Diverse/Homogenous Query Classifier) используются алгоритмы кластеризации на основе расстояния между визуальными отпечатками. Метрики включают количество кластеров, размер кластеров и схожесть между кластерами.
  • Вероятности классификации: Выходные данные Query Classifiers, представляющие вероятность того, что запрос принадлежит к определенной категории.
  • Алгоритмы машинного обучения: Упоминается использование систем машинного обучения, в частности AdaBoost (Adaptive Boosting), для создания Query Classifiers. Классификаторы обучаются на наборах данных, включающих запросы, векторы признаков (аннотации) и правильную категоризацию.

Выводы

  1. Визуальный интент может перевесить текстовую оптимизацию: Патент демонстрирует механизм, при котором Google определяет интент запроса, анализируя визуальные характеристики изображений, которые предпочитают пользователи. Соответствие этому визуальному интенту становится критически важным фактором ранжирования.
  2. Поведенческие данные определяют набор для обучения: Система не анализирует все изображения. Она обучается только на тех изображениях, которые пользователи посчитали релевантными (удовлетворяющие порогу User Behavior Data). Клики и время просмотра напрямую влияют на то, как Google поймет запрос в будущем.
  3. Категоризация запросов через машинное обучение: Google использует сложные Image Annotators (распознавание лиц, цветов, текста, графиков) для извлечения признаков и Query Classifiers на основе ML (например, AdaBoost) для автоматического определения категории запроса.
  4. Активное переранжирование на основе категорий: Если запрос отнесен к определенной категории (например, Single Person Query), система активно повышает в выдаче изображения, соответствующие этой категории (изображения с одним лицом), и может понижать не соответствующие.
  5. Языковая независимость и устойчивость к неоднозначности: Поскольку метод основан на визуальном анализе кликов, он работает для всех языков и помогает разрешать текстовые неоднозначности (например, отличать запрос о цвете от запроса о названии, как в примере с "Red Sea").
  6. Анализ разнообразия через отпечатки: Использование Fingerprints и кластеризации позволяет системе понять, ожидает ли пользователь разнообразную выдачу (много маленьких кластеров) или ищет конкретное изображение (один большой кластер, много дубликатов).

Практика

Best practices (это мы делаем)

  • Соответствие визуального контента интенту пользователя: Убедитесь, что изображения визуально соответствуют тому, что пользователи ожидают увидеть по данному запросу. Анализируйте текущую выдачу по изображениям и определяйте доминирующие визуальные паттерны (цвета, композиция, наличие лиц, тип графики).
  • Оптимизация под визуальные категории: Если запрос подразумевает определенную визуальную характеристику (например, цвет в запросе "синий велосипед"), критически важно использовать изображения, где этот цвет является доминирующим. Dominant Color Annotator и Color Query Classifier могут активно повышать такие изображения.
  • Использование лиц для персонализированных запросов: Для запросов, связанных с именами людей, используйте качественные изображения с четко различимыми лицами. Если запрос подразумевает конкретного человека, Single Person Query Classifier будет отдавать предпочтение изображениям с одним лицом, а не групповым фото.
  • Улучшение поведенческих факторов для изображений: Работайте над привлекательностью изображений в выдаче, чтобы стимулировать клики и увеличивать время просмотра (long clicks). Изображения с хорошими поведенческими факторами станут основой для обучения системы категоризации и получат преимущество.
  • Использование уникальных изображений: Используйте уникальные или высококачественные авторские изображения. Fingerprint Annotator позволяет Google легко определять дубликаты. В зависимости от категории запроса (Diverse или Homogenous), неуникальный контент может быть понижен.

Worst practices (это делать не надо)

  • Несоответствие изображения тексту (Кликбейт): Использование изображений, которые визуально не соответствуют запросу или окружающему тексту. Это может привести к short clicks (быстрый возврат на выдачу), что негативно скажется на User Behavior Data и может привести к понижению в ранжировании.
  • Игнорирование визуальных характеристик: Фокусироваться только на текстовой оптимизации (alt text, заголовки), игнорируя фактическое визуальное содержание. Если изображение визуально нерелевантно интенту, определенному Google, описанный механизм его понизит.
  • Использование стоковых изображений низкого качества: Использование заезженных, нерелевантных стоковых фото, которые пользователи часто игнорируют или быстро закрывают. Они не будут собирать положительные поведенческие сигналы и не помогут в ранжировании.

Стратегическое значение

Патент подтверждает, что Google рассматривает поиск по изображениям как сложную систему, требующую глубокого понимания визуального контента и интента пользователя, а не только анализа текста вокруг картинки. Стратегия SEO должна включать визуальную стратегию. Понимание того, как Google категоризирует запросы на основе визуальных данных и кликов, позволяет более точно соответствовать ожиданиям пользователей и требованиям алгоритмов. Это также подчеркивает важность синергии между качеством контента и поведенческими факторами.

Практические примеры

Сценарий 1: Оптимизация для цветового запроса в E-commerce

  • Задача: Оптимизировать карточку товара для запроса "красное вечернее платье".
  • Действие: Разместить в качестве основного изображения товара качественное фото, на котором красное платье занимает большую часть кадра и красный цвет является очевидно доминирующим.
  • Механизм (по патенту): Пользователи, ищущие этот запрос, преимущественно кликают на изображения с доминирующим красным цветом. Dominant Color Annotator фиксирует это. Color Query Classifier относит запрос к категории "Color Query: Red". При ранжировании система повысит изображения с доминирующим красным цветом.
  • Результат: Изображение получает буст в ранжировании по сравнению с изображениями, где красный цвет не доминирует (например, фото в интерьере с маленьким платьем).

Сценарий 2: Оптимизация статьи о знаменитости

  • Задача: Оптимизировать изображение для биографической статьи по запросу [Имя Фамилия].
  • Действие: Использовать качественный портрет (одно лицо, хорошо различимое) в качестве основного изображения статьи.
  • Механизм (по патенту): Пользователи по таким запросам чаще кликают на портреты. Face Annotator фиксирует наличие одного лица. Single Person Query Classifier относит запрос к категории Single Person Query. Система будет повышать портреты и понижать групповые фото или изображения без лиц.
  • Результат: Улучшение позиций в поиске по изображениям и повышение вероятности показа изображения в основной веб-выдаче.

Вопросы и ответы

Как Google определяет, какие изображения анализировать для категоризации запроса?

Google не анализирует все изображения в выдаче. Система отбирает только те изображения, которые удовлетворяют определенному порогу User Behavior Data. Это означает, что анализируются изображения, на которые пользователи достаточно часто кликали или которые просматривали в течение длительного времени (long clicks). Таким образом, пользователи сами указывают Google, какие визуальные характеристики являются наиболее релевантными для данного запроса.

Что такое Image Annotators и какие они бывают?

Image Annotators — это специализированные модули, которые анализируют визуальный контент изображения для извлечения конкретных характеристик. В патенте упоминаются: Face Annotator (определяет количество и размер лиц), Fingerprint Annotator (создает визуальный отпечаток для определения схожести), Screenshot Annotator, Text Annotator, Graph/Chart Annotator (определяют тип контента) и Dominant Color Annotator (определяет основные цвета).

Как работает категоризация запросов?

После того как система собрала аннотации (визуальные характеристики) с популярных изображений, она передает эти данные в Query Classifiers. Это модели машинного обучения (в патенте упоминается AdaBoost), которые обучены определять тип запроса на основе этих данных. Например, если большинство кликнутых изображений содержат одно лицо, запрос будет классифицирован как Single Person Query.

Как именно категоризация влияет на ранжирование?

Когда система знает категорию запроса, она использует эту информацию для переранжирования результатов. Если запрос отнесен к категории Color Query: Blue, то Rank Modifier Engine увеличит оценки ранжирования (IR scores) для изображений, у которых доминирующим цветом является синий. Это приводит к повышению таких изображений в финальной выдаче.

Влияет ли этот патент на текстовый поиск?

Патент напрямую описывает улучшение поиска по изображениям. Однако он может оказывать косвенное влияние на текстовый (веб) поиск через механизмы смешивания (Universal Search/Blending). Если благодаря этой системе Google может более точно определить качественные и релевантные изображения, эти изображения с большей вероятностью будут показаны в основной веб-выдаче (например, в каруселях изображений или как часть сниппета).

Что важнее для Image SEO в контексте этого патента: alt text или само изображение?

Оба элемента важны, но этот патент подчеркивает критическую важность самого визуального контента изображения. Традиционные сигналы (как alt text) используются для первичного ранжирования. Однако финальное переранжирование основывается на визуальном соответствии категории запроса. Если изображение визуально не соответствует интенту, который Google определил через анализ кликов, оно будет понижено, несмотря на идеальный alt text.

Как система обрабатывает многоязычные запросы?

Одним из преимуществ этого метода является его независимость от языка. Система анализирует, на какие изображения кликают пользователи, независимо от того, на каком языке был задан запрос. Если пользователи по запросам "red apple" и "красное яблоко" кликают на одинаковые визуально красные изображения, система присвоит обоим запросам схожую категорию, связанную с красным цветом.

Как система определяет, ожидает ли пользователь разнообразную выдачу?

Для этого используется Fingerprint Annotator и Diverse/Homogenous Query Classifier. Система анализирует визуальные отпечатки популярных изображений и кластеризует их. Если изображения формируют много маленьких кластеров, запрос считается разнообразным (Diverse Query). Если они формируют один большой кластер (много дубликатов), запрос считается специфичным (Homogenous Query), и в этом случае дубликаты могут не понижаться так агрессивно.

Что делать, если мои изображения хорошо оптимизированы по тексту, но имеют мало кликов?

Необходимо работать над улучшением привлекательности и релевантности изображений. Если изображения имеют мало кликов, они не будут участвовать в процессе категоризации и не получат преимуществ от описанного механизма. Улучшайте качество изображений, делайте их более заметными в выдаче, чтобы собирать положительные User Behavior Data, особенно long clicks.

Может ли система ошибочно определить категорию запроса?

Да, как и любая система, основанная на машинном обучении и поведенческих данных. Например, если пользователи массово начнут кликать на нерелевантные изображения (например, в результате манипуляций). Однако использование метрик типа long clicks (длительное время просмотра) призвано минимизировать такие ошибки, так как оно лучше отражает удовлетворенность пользователя, чем просто факт клика.

Похожие патенты

Как Google использует клики пользователей в поиске по картинкам для понимания содержания изображений и улучшения таргетинга
Google анализирует поведение пользователей в поиске по картинкам для идентификации содержания изображений. Если пользователи ищут определенный запрос (идею) и массово кликают на конкретное изображение в результатах, система связывает это изображение с данным запросом (концепцией). Эти данные используются для улучшения ранжирования в поиске картинок и для предложения релевантных ключевых слов рекламодателям, загружающим схожие изображения.
  • US11409812B1
  • 2022-08-09
  • Поведенческие сигналы

  • Семантика и интент

  • SERP

Как Google использует машинное зрение и исторические клики для определения визуального интента и ранжирования изображений
Google использует систему, которая определяет визуальное значение текстового запроса, анализируя объекты на картинках, которые пользователи выбирали ранее по этому или похожим запросам. Система создает набор «меток контента» (визуальный профиль) для запроса и сравнивает его с объектами, распознанными на изображениях-кандидатах с помощью нейросетей. Это позволяет ранжировать изображения на основе их визуального соответствия интенту пользователя.
  • US20200159765A1
  • 2020-05-21
  • Семантика и интент

  • Мультимедиа

  • Персонализация

Как Google использует query-specific модели для переранжирования изображений на основе их визуальных характеристик в реальном времени
Google использует систему для корректировки ранжирования изображений непосредственно в момент запроса (онлайн). Для популярных запросов система заранее обучает индивидуальные модели релевантности на основе исторических данных о кликах. При получении нового запроса система активирует наиболее подходящую модель и использует визуальные характеристики (цвет, текстура) для переоценки и переранжирования результатов, обеспечивая точное соответствие визуального контента интенту пользователя.
  • US10311096B2
  • 2019-06-04
  • Мультимедиа

  • SERP

  • Поведенческие сигналы

Как Google использует клики пользователей для генерации альтернативных запросов и автоматической разметки изображений
Google анализирует исторические данные о том, какие запросы приводили к кликам по конкретному изображению. Эти запросы используются как автоматические метки (labels) для индексации и как предлагаемые альтернативные запросы при взаимодействии пользователя с этим изображением в выдаче. Система позволяет уточнять поиск на основе коллективного поведения и переносить метки между визуально похожими изображениями.
  • US20150161175A1
  • 2015-06-11
  • Индексация

  • Поведенческие сигналы

  • Семантика и интент

Как Google определяет намерение поиска изображений, анализируя контент топовых веб-результатов
Google использует систему для определения того, следует ли показывать блок с изображениями в поисковой выдаче. Вместо анализа только текста запроса, система анализирует характеристики контента (например, плотность изображений, соотношение изображений к тексту) на страницах, которые уже ранжируются в топе. Если эти страницы похожи на контент, который обычно удовлетворяет потребность в изображениях, система активирует показ блока картинок.
  • US9195717B2
  • 2015-11-24
  • Семантика и интент

  • Мультимедиа

  • SERP

Популярные патенты

Как Google использует исторические данные о документах, ссылках и поведении пользователей для определения свежести, качества и борьбы со спамом
Фундаментальный патент Google, описывающий использование временных рядов данных для ранжирования. Система анализирует историю документа (дату создания, частоту и объем обновлений), историю ссылок (скорость появления, возраст, изменения анкоров), тренды запросов и поведение пользователей. Эти данные используются для определения свежести контента, выявления неестественной активности (спама) и оценки легитимности домена.
  • US7346839B2
  • 2008-03-18
  • Свежесть контента

  • Антиспам

  • Ссылки

Как Google использует время просмотра (Watch Time) и поведение пользователей для расчета независимой от запроса оценки качества видео
Google рассчитывает независимый от запроса сигнал качества (Q) для видео, анализируя корреляции между поведенческими метриками: временем просмотра, рейтингами и количеством просмотров. Система использует математические функции (Predictor и Voting) для моделирования качества и определения достоверности данных, а также активно фильтрует спам в рейтингах. Этот сигнал Q затем используется для ранжирования видео в поиске.
  • US8903812B1
  • 2014-12-02
  • Поведенческие сигналы

  • SERP

  • Антиспам

Как Google позволяет вебмастерам управлять весом и интерпретацией исходящих ссылок через атрибуты тега (Основа nofollow)
Google запатентовал механизм, позволяющий вебмастерам добавлять в теги ссылок () специальные пары "параметр=значение" (например, rel=nofollow или linkweight=0.5). Эта информация используется краулером и поисковой системой для изменения способа обработки ссылки, например, для корректировки передаваемого веса (PageRank) или блокировки ее учета.
  • US7979417B1
  • 2011-07-12
  • Ссылки

  • Краулинг

  • Техническое SEO

Как Google группирует похожие запросы и поисковые подсказки, определяя интент пользователя через анализ сессий и кликов
Google использует графовую модель (Марковскую цепь) для кластеризации поисковых подсказок и связанных запросов. Система анализирует, какие запросы пользователи вводят в одной сессии и на какие документы они кликают. Это позволяет сгруппировать запросы, ведущие к схожему контенту, и предложить пользователю разнообразный набор подсказок, отражающих разные интенты.
  • US8423538B1
  • 2013-04-16
  • Семантика и интент

  • Поведенческие сигналы

  • SERP

Как Google использует семантические связи внутри контента для переранжирования и повышения разнообразия выдачи
Google использует метод для переоценки и переранжирования поисковой выдачи путем анализа семантических взаимодействий между терминами внутри документов. Система строит графы локальных и глобальных связей, а затем определяет взаимосвязи между самими документами на основе их семантического вклада (даже без гиперссылок). Это позволяет повысить разнообразие выдачи, особенно по неоднозначным запросам.
  • US7996379B1
  • 2011-08-09
  • Семантика и интент

  • Ссылки

  • SERP

Как Google использует вовлеченность пользователей на связанных страницах (Reachability Score) для ранжирования основного документа
Google рассчитывает «Оценку Достижимости» (Reachability Score), анализируя, как пользователи взаимодействуют со страницами, на которые ссылается основной документ (внутренние и исходящие ссылки). Если пользователи активно переходят по этим ссылкам (высокий CTR) и проводят время на целевых страницах (высокое время доступа), основной документ получает повышение в ранжировании. Этот механизм измеряет потенциальную глубину и качество пользовательской сессии.
  • US8307005B1
  • 2012-11-06
  • Поведенческие сигналы

  • Ссылки

  • SERP

Как Google использует историю поиска и ссылки с предпочитаемых пользователем сайтов для персонализации выдачи
Google может персонализировать результаты поиска, используя историю запросов или просмотров пользователя для создания набора предпочтений (Document Bias Set). Если документы из этого набора, особенно те, которые также признаны глобально качественными, ссылаются на результаты поиска, эти результаты переранжируются (повышаются или понижаются) в соответствии с весами предпочтений пользователя.
  • US8538970B1
  • 2013-09-17
  • Персонализация

  • Поведенческие сигналы

  • SERP

Как Google A/B тестирует и оптимизирует сниппеты (заголовки, описания, изображения) для повышения CTR
Google использует механизм для оптимизации отображения контента (сниппетов). Система показывает разные варианты заголовков, описаний или изображений для одной и той же ссылки разным пользователям или на разных платформах. Затем она измеряет кликабельность (CTR) каждого варианта и выбирает наиболее эффективный для дальнейшего использования, учитывая также тип устройства пользователя.
  • US9569432B1
  • 2017-02-14
  • SERP

  • Поведенческие сигналы

  • Персонализация

Как Google определяет географическую зону релевантности бизнеса на основе реального поведения пользователей (Catchment Areas)
Google определяет уникальную "зону охвата" (Catchment Area) для локального бизнеса, анализируя, из каких географических точек пользователи кликали на его результаты в поиске. Эта динамическая зона заменяет фиксированный радиус и используется для фильтрации кандидатов при локальном поиске, учитывая известность бренда, категорию бизнеса и физические препятствия.
  • US8775434B1
  • 2014-07-08
  • Local SEO

  • Поведенческие сигналы

Как Google использует контент вокруг ссылок (вне анкора) для генерации «Синтетического Описательного Текста» и ранжирования вашего сайта
Google может генерировать «Синтетический Описательный Текст» для страницы, анализируя контент и структуру сайтов, которые на нее ссылаются. Система создает структурные шаблоны для извлечения релевантного текста (например, заголовков или абзацев рядом со ссылкой), который затем используется как мощный сигнал ранжирования. Этот механизм позволяет лучше понять содержание страницы, особенно если традиционный анкорный текст низкого качества или отсутствует.
  • US9208233B1
  • 2015-12-08
  • Ссылки

  • Семантика и интент

  • Индексация

seohardcore