SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google конвертирует визуальные характеристики изображений в текстовые ключевые слова для визуального поиска

IDENTIFYING TEXTUAL TERMS IN RESPONSE TO A VISUAL QUERY (Идентификация текстовых терминов в ответ на визуальный запрос)
  • US8935246B2
  • Google LLC
  • 2012-08-08
  • 2015-01-13
  • Семантика и интент
  • Мультимедиа
  • Индексация
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google использует механизм для понимания содержания изображений путем анализа их визуальных характеристик (цвет, текстура, края). Система сопоставляет эти характеристики с текстовыми терминами, используя модели машинного обучения, обученные на истории поиска картинок. Это позволяет Google генерировать релевантные текстовые запросы для любого изображения, что является основой работы визуального поиска (например, Google Lens).

Описание

Какую проблему решает

Патент решает проблему «семантического разрыва» между визуальным восприятием и текстовым поиском. Пользователи часто сталкиваются с ситуацией, когда у них есть изображение (visual query), но они не знают, какие текстовые термины использовать для поиска информации о нем. Изобретение позволяет системе автоматически переводить визуальную информацию в релевантные текстовые концепции.

Что запатентовано

Запатентована система и метод для преобразования визуального запроса (изображения) в набор ранжированных текстовых терминов (textual terms). Суть изобретения заключается в использовании предварительно обученных моделей машинного обучения, называемых Image Relevance Models (Модели релевантности изображений). Эти модели позволяют сопоставлять извлеченные визуальные признаки изображения с предопределенным набором текстовых запросов и определять их релевантность.

Как это работает

Ключевой механизм работает в два этапа:

  • Офлайн-обучение: Система анализирует логи поиска по картинкам, чтобы понять, какие визуальные признаки (цвет, текстура, границы) характерны для изображений, которые пользователи выбирали в ответ на популярные текстовые запросы (Top N). Для каждого запроса создается Image Relevance Model, и они объединяются в матрицу.
  • Онлайн-обработка: При получении визуального запроса система извлекает из него визуальные признаки (формируя Image Features Vector). Этот вектор умножается на матрицу обученных моделей. В результате вычисляются веса релевантности для тысяч текстовых терминов. Лучшие термины возвращаются пользователю.

Актуальность для SEO

Высокая. Визуальный поиск (Google Lens, Поиск по картинкам) является стратегическим направлением. Этот патент описывает фундаментальную технологию, позволяющую поисковой системе понимать содержание изображения на основе его пикселей и связывать его с текстовыми сущностями. Это критически важно для современных мультимодальных систем поиска.

Важность для SEO

Патент имеет высокое значение для SEO (8/10), особенно для Image SEO и E-commerce. Он раскрывает механизм, с помощью которого Google интерпретирует визуальный контент независимо от окружающего текста или ALT-тегов. Это напрямую влияет на то, как изображения ранжируются и как они способствуют пониманию тематики страницы. Понимание этого механизма требует от SEO-специалистов фокусироваться на визуальной четкости и релевантности изображений.

Детальный разбор

Термины и определения

Visual Query (Визуальный запрос)
Изображение (фотография, скан, кадр видео), отправленное в поисковую систему в качестве запроса.
Image Feature Values (Значения признаков изображения)
Числовые представления визуальных характеристик изображения. В патенте упоминаются color histogram values (значения цветовой гистограммы), intensity values (значения интенсивности), edge statistic (статистика границ) и texture values (текстурные значения).
Image Features Vector (Вектор признаков изображения)
Структурированный набор Image Feature Values, представляющий изображение в числовом формате для анализа.
Image Relevance Model (IRM) / Image Relevance Vector (Модель/Вектор релевантности изображения)
Обученная модель для конкретного текстового термина. Представляет собой вектор весов, определяющий относительную важность различных Image Features для этого термина.
Matrix of Image Relevance Models (Матрица моделей релевантности изображений)
Коллекция Image Relevance Models для большого количества предопределенных текстовых терминов (например, Топ N популярных запросов). Используется для эффективного сопоставления входного изображения с множеством терминов.
Textual Terms / Query Terms (Текстовые термины / Запросы)
Слова или фразы, которые система пытается сопоставить с визуальным запросом.
PAMIR (Passive-Aggressive Model for Image Retrieval)
Конкретный алгоритм машинного обучения, упомянутый в описании как возможный метод для обучения Image Relevance Models.

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает основной метод идентификации текстовых терминов по изображению.

  1. Получение изображения запроса (query image).
  2. Получение набора признаков изображения и формирование вектора их значений (vector of image feature values).
  3. Получение набора текстовых запросов (set of query terms).
  4. Для каждого запроса: получение веса (оценки релевантности) путем применения вектора признаков изображения к соответствующему вектору релевантности изображения (image relevance vector) этого запроса.
  5. Ключевой аспект: каждый компонент image relevance vector указывает на относительную важность соответствующего компонента в векторе признаков изображения для определения релевантности запроса.
  6. Выбор подмножества запросов на основе их весов.
  7. Предоставление одного или нескольких выбранных запросов.

Ядром изобретения является использование предопределенных Image Relevance Vectors, которые специфичны для каждого текстового термина и определяют, какие визуальные признаки важны для этого термина. Это позволяет системе оценить, насколько хорошо визуальные характеристики входного изображения соответствуют ожиданиям для данного термина.

Claim 4 (Зависимый от 1): Детализирует механизм сопоставления.

  1. Идентификация матрицы векторов релевантности (matrix of the image relevance vectors).
  2. Умножение вектора признаков изображения на эту матрицу. Каждая строка матрицы соответствует определенному текстовому запросу.

Это определяет математическую операцию для эффективной реализации. Вместо последовательного сравнения изображения с каждой моделью, используется матричное умножение для одновременного сравнения признаков входного изображения с тысячами моделей релевантности, что обеспечивает высокую скорость работы.

Где и как применяется

Изобретение затрагивает несколько этапов поиска, разделяясь на офлайн-обучение и онлайн-обработку запросов.

INDEXING – Индексирование и извлечение признаков (Офлайн-обучение и подготовка данных)
На этом этапе происходит построение Matrix of Image Relevance Models. Система анализирует логи поисковых запросов изображений (logs of textual queries), определяет популярные запросы (Топ N), находит для них репрезентативные изображения (на основе кликов пользователей) и обучает Image Relevance Models (IRM).

QUNDERSTANDING – Понимание Запросов (Онлайн-обработка визуального запроса)
Это основное применение патента в реальном времени. Когда пользователь отправляет визуальный запрос (например, через Google Lens):

  1. Feature Extraction: Из изображения извлекаются Image Feature Values и формируется вектор.
  2. Mapping: Происходит умножение этого вектора на подготовленную матрицу IRM.
  3. Результат: Система переводит визуальный ввод в структурированное семантическое представление — ранжированный список Textual Terms.

RANKING / METASEARCH (Онлайн)
Полученные Textual Terms могут быть использованы для запуска стандартных текстовых поисковых процессов. Результаты этих поисков затем ранжируются и смешиваются для формирования ответа на исходный визуальный запрос.

Входные данные (Онлайн):

  • Визуальный запрос (изображение).
  • Matrix of Image Relevance Models (предварительно рассчитанная).

Выходные данные (Онлайн):

  • Ранжированный список текстовых терминов с соответствующими весами (оценками релевантности).
  • Опционально: изображения, ассоциированные с этими терминами, или интерактивный документ с результатами.

На что влияет

  • Типы контента и форматы: В первую очередь влияет на обработку изображений (фотографии, графика). Критически важно для визуального поиска (Google Lens, Google Images).
  • Специфические запросы: Запросы, связанные с идентификацией объектов, продуктов, достопримечательностей — всего, что имеет отличительные визуальные признаки.
  • Ниши и тематики: Наибольшее влияние в E-commerce (идентификация товаров), локальном поиске (идентификация мест) и информационных нишах, где важна визуальная составляющая.

Когда применяется

Алгоритм применяется каждый раз, когда система обрабатывает визуальный запрос. Это базовый механизм для понимания содержания изображения и его перевода в текстовый формат, понятный остальной поисковой инфраструктуре.

Пошаговый алгоритм

Процесс А: Обработка визуального запроса в реальном времени

  1. Получение запроса: Система получает визуальный запрос от клиента.
  2. Извлечение признаков (Feature Extraction): Генерируется набор Image Feature Values (гистограммы цветов, интенсивность, статистика краев).
  3. Формирование вектора: Значения признаков структурируются в Image Features Vector.
  4. Сопоставление (Mapping): Вектор признаков умножается на Matrix of Image Relevance Models.
  5. Вычисление весов: В результате матричного умножения получается набор весов (оценок релевантности) для множества предопределенных текстовых терминов.
  6. Ранжирование: Текстовые термины ранжируются в соответствии с их весами.
  7. Формирование ответа: Один или несколько топовых ранжированных терминов отправляются клиенту.
  8. Дополнительные действия (Опционально): Система может инициировать текстовый поиск по выбранному термину или создать интерактивный документ с визуальными идентификаторами (метками) для частей изображения, связанными с текстовыми терминами.

Процесс Б: Офлайн-обучение моделей (Подготовка данных)

  1. Анализ логов: Доступ к логам текстовых запросов для поиска изображений.
  2. Идентификация Топ N запросов: Определение N наиболее популярных текстовых запросов (в патенте упоминается диапазон N от 5000 до 30000).
  3. Выбор репрезентативных изображений: Для каждого из Топ N запросов определяются изображения, которые чаще всего выбирались пользователями или ранжировались высоко.
  4. Извлечение признаков: Извлечение Image Feature Values для каждого репрезентативного изображения.
  5. Машинное обучение: Применение ML (например, PAMIR) для генерации Image Relevance Model (вектора весов) для каждого из Топ N запросов. Модель учится определять важность признаков для запроса.
  6. Сборка матрицы: Комбинирование всех Image Relevance Models в единую матрицу для использования в Процессе А.

Какие данные и как использует

Данные на входе

  • Мультимедиа факторы (Визуальные данные): Это основные данные для онлайн-обработки. Анализируются пиксели изображения для извлечения Image Feature Values. В патенте явно упомянуты:
    • Color histogram values (Значения гистограммы цветов).
    • Intensity values (Значения интенсивности).
    • Edge statistic (Статистика краев).
    • Texture values (Текстурные значения).
  • Поведенческие факторы (Для офлайн-обучения): Логи текстовых поисков по изображениям (logs of textual searches for images). Критически важны данные о том, какие изображения пользователи выбирали (images that were selected by the users) в ответ на конкретные текстовые запросы.

Какие метрики используются и как они считаются

  • Image Relevance Model (IRM) / Vector: Вектор весов, определяющий важность каждого визуального признака для конкретного текстового термина. Обучается офлайн.
  • Weights/Scores (Веса/Оценки Релевантности): Числовая мера релевантности между визуальным запросом и текстовым термином.
  • Метод расчета (Онлайн): Матричное умножение. Image Features Vector (входного изображения) умножается на Matrix of Image Relevance Models. Результатом является набор весов для текстовых терминов.
  • Алгоритмы машинного обучения (Офлайн): Используются для генерации IRM. Упомянут PAMIR (Passive-Aggressive Model for Image Retrieval).

Выводы

  1. Понимание изображений на основе визуальных признаков: Патент подтверждает способность Google интерпретировать содержание изображения исключительно на основе его визуальных характеристик (цвет, текстура, края), независимо от текстового контекста (ALT-теги, окружающий текст).
  2. Связь между поведением пользователей и визуальным поиском: Механизм напрямую использует поведение пользователей в традиционном поиске по картинкам для обучения визуального поиска. Модели (IRM) строятся на том, какие изображения пользователи считали релевантными для текстовых запросов в прошлом.
  3. Важность визуальной отличительности (Visual Distinctiveness): Чтобы изображение было правильно идентифицировано, его визуальные признаки должны четко соответствовать обученной модели релевантности (IRM) для целевого термина. Изображения с четкими, недвусмысленными визуальными характеристиками имеют преимущество.
  4. Масштабируемость и эффективность: Использование матричного умножения позволяет системе эффективно сравнивать входное изображение с тысячами предопределенных текстовых терминов (до 30000) в реальном времени.
  5. Визуальный поиск как переводчик: Система функционирует как переводчик, преобразуя пиксели (Image Feature Vector) в семантику (Textual Terms) через посредничество Image Relevance Models.

Практика

Best practices (это мы делаем)

  • Обеспечение визуальной четкости и качества: Используйте высококачественные, четкие изображения, где основной объект хорошо освещен и занимает центральное место. Это обеспечивает точное извлечение Image Feature Values и корректное сопоставление с IRM.
  • Фокус на отличительных признаках: Убедитесь, что визуальные характеристики объекта на изображении (цвет, форма, текстура) строго соответствуют целевому ключевому слову. Анализируйте выдачу Image Search по целевым запросам, чтобы понять, какие визуальные паттерны Google уже ассоциирует с ними (т.е. понять обученную модель).
  • Оптимизация под Визуальный Поиск (Google Lens): Регулярно анализируйте ключевые изображения вашего сайта с помощью Google Lens. Это позволит увидеть, какие Textual Terms Google извлекает из ваших изображений. Если интерпретация неверна, рассмотрите возможность замены изображения на более репрезентативное.
  • Оптимизация изображений товаров (E-commerce): Предоставляйте чистые изображения продуктов, предпочтительно на нейтральном фоне. Это помогает системе изолировать признаки объекта и минимизирует шум при извлечении Image Feature Values, улучшая идентификацию товара.

Worst practices (это делать не надо)

  • Использование низкокачественных или размытых изображений: Это ухудшает точность извлечения визуальных признаков (особенно edge statistic и текстуры) и может привести к неправильной идентификации.
  • Применение абстрактных или вводящих в заблуждение изображений: Использование стоковых или чрезмерно художественных изображений, где визуальные признаки не соответствуют реальному объекту или теме контента. Система может ассоциировать их с нерелевантными текстовыми терминами.
  • Перегруженные композиции: Изображения, содержащие слишком много объектов или сложный фон, затрудняют выделение признаков основного объекта, снижая вероятность его правильной идентификации.
  • Игнорирование визуальной составляющей: Фокусироваться только на ALT-тегах и окружающем тексте, игнорируя качество самого изображения. Патент показывает, что визуальные данные анализируются напрямую.

Стратегическое значение

Этот патент подтверждает стратегический приоритет Google в области распознавания объектов и сущностей, выходя за рамки анализа ключевых слов. Для SEO это означает, что визуальное представление контента является самостоятельным и важным сигналом, особенно с ростом популярности визуального поиска. Долгосрочная стратегия должна включать оптимизацию самих визуальных активов (изображений продуктов, логотипов, инфографики), а не только их метаданных.

Практические примеры

Сценарий: Оптимизация изображения товара в интернет-магазине (Кроссовки)

  1. Проблема: Текущее изображение — это "lifestyle" фотография, где кроссовки показаны на ногах модели в парке. Визуальный поиск идентифицирует их как общие "кроссовки для бега", а не конкретную модель.
  2. Применение патента: Необходимо предоставить изображение, чей Image Feature Vector будет максимально соответствовать Image Relevance Model конкретной модели кроссовок.
  3. Действие: Добавить на страницу товара четкое изображение кроссовка на белом фоне (студийное фото).
  4. Механизм в действии: Система извлекает чистые данные о статистике краев (форма кроссовка) и гистограмме цветов (конкретная расцветка) без фонового шума.
  5. Ожидаемый результат: Image Feature Vector нового изображения получает высокий вес при сопоставлении с IRM для точного названия модели (например, "Adidas Ultraboost 21"), обеспечивая правильную идентификацию и повышая видимость в визуальном поиске по этому товару.

Вопросы и ответы

Означает ли этот патент, что ALT-текст больше не нужен?

Нет, ALT-текст остается критически важным для доступности (accessibility) и продолжает служить сильным сигналом контекста для традиционного поиска. Однако этот патент показывает, что Google обладает мощным механизмом для понимания изображения напрямую через анализ пикселей (Image Feature Values). Лучшая стратегия — убедиться, что ALT-текст и визуальное содержание изображения согласованы и дополняют друг друга.

Как Google обучает эти "Модели релевантности изображений" (Image Relevance Models)?

Обучение происходит офлайн. Google анализирует логи поиска по картинкам, определяет самые популярные текстовые запросы (Топ N) и смотрит, какие изображения пользователи чаще всего выбирали для этих запросов. Затем система анализирует визуальные признаки этих популярных изображений и с помощью машинного обучения (например, PAMIR) создает модель (вектор весов), которая определяет, какие признаки наиболее важны для каждого конкретного запроса.

Что конкретно подразумевается под "Image Feature Values"?

Это числовые данные, описывающие визуальные характеристики изображения. В патенте явно упоминаются гистограммы цветов (распределение цветов), значения интенсивности (яркость), статистика краев (наличие и ориентация линий и форм) и текстура. Вместе эти значения формируют уникальный "визуальный отпечаток" изображения — Image Features Vector.

Как этот патент связан с Google Lens?

Этот патент описывает фундаментальную технологию, которая лежит в основе работы систем типа Google Lens. Когда Google Lens анализирует изображение, он использует подобный механизм для перевода визуального ввода в текстовые термины. Эти термины затем используются для поиска информации об объектах, распознанных на изображении.

Как SEO-специалист может проверить, какие текстовые термины Google ассоциирует с изображениями сайта?

Самый прямой способ — использовать Google Lens для анализа ключевых изображений на вашем сайте. Результаты, которые предлагает Lens (например, связанные поисковые запросы или похожие товары), основаны на текстовых терминах, которые система извлекла из изображения с помощью механизма, описанного в патенте. Также можно использовать Google Vision AI API для более технического анализа.

Влияет ли качество или разрешение изображения на этот процесс?

Да, безусловно. Высокое качество и четкость изображения критически важны для точного извлечения Image Feature Values (особенно статистики краев и текстуры). Размытые, плохо освещенные или слишком маленькие изображения могут привести к неточному формированию вектора признаков и, как следствие, к неправильной идентификации текстовых терминов.

Как этот механизм влияет на SEO для E-commerce?

Влияние огромное. Правильная идентификация товара по изображению критична для видимости в Google Shopping и визуальном поиске. Если система правильно ассоциирует изображение вашего товара с точным названием модели, вы получаете более релевантный трафик. Это подчеркивает необходимость использования чистых, профессиональных фотографий товаров для облегчения распознавания.

Что такое "Матрица моделей релевантности изображений" и зачем она нужна?

Это способ организации обученных моделей (IRM) для эффективной обработки. Представьте себе огромную таблицу, где каждая строка — это IRM для одного популярного запроса (например, "Эйфелева башня"), а каждый столбец — это определенный визуальный признак. Использование матрицы позволяет системе быстро (через матричное умножение) сравнить вектор признаков входного изображения со всеми моделями одновременно, вместо того чтобы проверять их по одной.

Сколько ключевых слов Google проверяет на соответствие изображению?

Система предназначена для масштабирования на большое количество терминов. В описании патента упоминается, что N (количество популярных запросов, для которых обучаются модели) может составлять от 5000 до 30000. Это позволяет системе быстро сопоставлять изображение с тысячами потенциальных ключевых слов.

Применяется ли этот механизм к распознаванию лиц или текста (OCR)?

Патент описывает это как одну из параллельных систем поиска (Image-to-Terms Search System). В общей архитектуре визуального поиска, представленной в патенте, указано, что распознавание лиц (Face Recognition) и OCR являются отдельными специализированными системами, которые работают параллельно с описанным механизмом сопоставления признаков и терминов.

Похожие патенты

Как Google переводит изображения в текстовые запросы, валидируя метки через веб-поиск
Google использует эту систему для определения наилучшего текстового описания (метки) для изображения. Система тестирует различные варианты меток, используя их как поисковые запросы, и проверяет, сколько результатов поиска указывают на веб-страницы, содержащие исходное изображение. Это гарантирует, что выбранная метка точно отражает то, как изображение используется и понимается в интернете.
  • US9218546B2
  • 2015-12-22
  • Мультимедиа

  • Семантика и интент

  • Индексация

Как Google использует query-specific модели для переранжирования изображений на основе их визуальных характеристик в реальном времени
Google использует систему для корректировки ранжирования изображений непосредственно в момент запроса (онлайн). Для популярных запросов система заранее обучает индивидуальные модели релевантности на основе исторических данных о кликах. При получении нового запроса система активирует наиболее подходящую модель и использует визуальные характеристики (цвет, текстура) для переоценки и переранжирования результатов, обеспечивая точное соответствие визуального контента интенту пользователя.
  • US10311096B2
  • 2019-06-04
  • Мультимедиа

  • SERP

  • Поведенческие сигналы

Как Google преобразует изображения в текст для понимания мультимодальных запросов с помощью LLM
Google использует систему для обработки мультимодальных запросов (текст + изображение), позволяя LLM отвечать на вопросы об изображениях. Система анализирует изображение с помощью вспомогательных моделей (распознавание объектов, VQA) и выполняет обратный поиск по картинкам для извлечения текста с найденных веб-ресурсов. Вся эта информация объединяется в структурированный текстовый промт, который позволяет LLM понять визуальный контекст и сгенерировать релевантный ответ.
  • US20250061146A1
  • 2025-02-20
  • Мультимедиа

  • Семантика и интент

Как Google комбинирует визуальное сходство и семантические метки для улучшения поиска по картинке (Visual Search)
Google использует систему поиска по изображению, которая сочетает анализ визуальных характеристик и семантических меток. Система генерирует высокоточные метки (High Confidence Labels) для изображения, анализируя текст, связанный с визуально похожими картинками в интернете. Затем она ранжирует кандидатов, используя модель визуального сходства, обученную на основе человеческих оценок, и применяет правила фильтрации для обеспечения однородности результатов.
  • US8429173B1
  • 2013-04-23
  • Семантика и интент

  • Мультимедиа

  • SERP

Как Google определяет текстовое описание изображения для визуального поиска, анализируя похожие картинки и связанные с ними запросы
Google использует систему визуального поиска, которая позволяет пользователям отправлять изображение в качестве запроса. Для этого система создает индекс визуальных признаков и анализирует метаданные (запросы, по которым кликали на картинку, и текст на ссылающихся страницах). При получении изображения система находит визуально похожие картинки в индексе, анализирует связанные с ними текстовые фразы (n-граммы) и выбирает наилучшее описание. Затем выполняется стандартный поиск по этому текстовому описанию.
  • US8761512B1
  • 2014-06-24
  • Индексация

  • Мультимедиа

  • Семантика и интент

Популярные патенты

Как Google использует длительность кликов, Pogo-Sticking и уточнение запросов для оценки качества поиска (Click Profiles)
Google анализирует поведение пользователей после клика для оценки удовлетворенности. Система создает «Профили взаимодействия» (Click Profiles), учитывая длительность клика (Dwell Time), возврат к выдаче (Pogo-Sticking) и последующее уточнение запроса. Эти данные используются для сравнения эффективности алгоритмов ранжирования и выявления спама или кликбейта.
  • US9223868B2
  • 2015-12-29
  • Поведенческие сигналы

  • SERP

  • Антиспам

Как Google планировал использовать социальные связи, сети доверия и экспертизу для персонализации и переранжирования поисковой выдачи
Google запатентовал метод использования данных из социальных сетей («member networks») для влияния на ранжирование. Пользователи могли явно одобрять («endorse») результаты поиска. Эти одобрения показывались другим связанным пользователям (друзьям или людям, ищущим экспертное мнение) и использовались для переранжирования выдачи, добавляя персонализированный слой доверия.
  • US8825639B2
  • 2014-09-02
  • Персонализация

  • EEAT и качество

  • Поведенческие сигналы

Как Google использует крупномасштабное машинное обучение и данные о поведении пользователей для предсказания кликов и ранжирования результатов
Google использует систему машинного обучения для создания модели ранжирования, которая предсказывает вероятность клика пользователя по документу. Модель обучается на огромных массивах данных о прошлых поисках (запросы, документы, клики). Система учитывает базовую вероятность клика (Prior Probability), основанную на позиции и предыдущей оценке документа, а затем корректирует её с помощью правил, выявляющих, какие признаки (Features) документа и запроса влияют на выбор пользователя.
  • US7231399B1
  • 2007-06-12
  • Поведенческие сигналы

Как Google использует историю местоположений для определения физической активности пользователя и гиперперсонализации поиска
Google анализирует историю перемещений пользователя (местоположения и скорость), чтобы определить его текущую физическую активность (например, поход, шоппинг) и способ передвижения (например, пешком, на автобусе). Эта информация используется для радикальной персонализации: система корректирует ранжирование результатов, изменяет запросы и формирует подсказки, чтобы они соответствовали контексту реальных действий пользователя.
  • US20150006290A1
  • 2015-01-01
  • Поведенческие сигналы

  • Персонализация

  • Local SEO

Как Google выбирает сущность для Панели Знаний и решает, когда ее показывать, основываясь на топикальности SERP и CTR
Google использует этот механизм для решения двух задач: выбора наиболее релевантной сущности для Панели Знаний при неоднозначном запросе и определения необходимости показа самой панели. Система анализирует, насколько сущности соответствуют контенту топовых результатов поиска (Topicality Score). Показ панели активируется, если у органических результатов низкий CTR (что указывает на неудовлетворенность пользователей) или если у Google достаточно данных для ее заполнения.
  • US10922326B2
  • 2021-02-16
  • Knowledge Graph

  • SERP

  • Семантика и интент

Как Google итеративно распознает сущности на страницах и рассчитывает их важность с помощью PageRank
Google использует итеративный процесс для распознавания и устранения неоднозначности сущностей (людей, мест, понятий) в документах. Система начинает с известных фактов, находит упоминающие сущность документы, анализирует сопутствующие термины для уточнения модели распознавания и автоматически обнаруживает новые признаки. Патент также описывает расчет важности сущности путем суммирования PageRank ссылающихся документов, взвешенного на вероятность ссылки.
  • US8122026B1
  • 2012-02-21
  • Семантика и интент

  • Ссылки

  • Knowledge Graph

Как Google использует связанные запросы и временный «бустинг» для обнаружения и тестирования релевантных документов, которые ранжируются низко
Патент описывает механизм улучшения поиска путем перемещения документов на более высокие позиции. Google идентифицирует документы, которые высоко ранжируются по связанным запросам (например, с синонимами, уточнениями или исправленными ошибками), но низко по исходному запросу, и повышает их. Цель — протестировать истинную релевантность этих документов и собрать пользовательский отклик (клики) для улучшения будущего ранжирования.
  • US8521725B1
  • 2013-08-27
  • Поведенческие сигналы

  • SERP

  • Семантика и интент

Как Google переносит вес поведенческих сигналов (кликов) между связанными запросами для улучшения ранжирования
Google улучшает ранжирование по редким или новым запросам, для которых недостаточно собственных данных, используя поведенческие сигналы (Clickthrough Data) из связанных запросов. Если пользователи часто вводят запросы последовательно, система идентифицирует связь и переносит данные о кликах с одного запроса на другой, позволяя документам с высоким engagement ранжироваться выше по всему кластеру.
  • US7505964B2
  • 2009-03-17
  • Поведенческие сигналы

  • SERP

Как Google персонализирует мобильную выдачу, повышая в ранжировании приложения, которые пользователь часто использует (Affinity Score)
Google рассчитывает «Affinity Score» для мобильных приложений на основе того, как часто и долго пользователь их использует (относительное вовлечение). При поиске с мобильного устройства система повышает в ранжировании результаты (deep links), ведущие в приложения с высоким Affinity Score, делая выдачу более персонализированной.
  • US10248698B2
  • 2019-04-02
  • Персонализация

  • Поведенческие сигналы

  • SERP

Как Google решает, показывать ли прямой ответ, анализируя частоту использования естественного языка в исторических запросах о факте
Google анализирует исторические данные о том, как пользователи ищут конкретный факт. Если они часто используют естественный язык (например, «какая высота у Эйфелевой башни»), система считает, что пользователи действительно ищут этот факт. На основе этого рассчитывается «Оценка поиска фактов» (Fact-Seeking Score). Эта оценка используется как сигнал ранжирования, чтобы решить, нужно ли показывать прямой ответ (Factual Answer) и насколько высоко его разместить в результатах поиска.
  • US9396235B1
  • 2016-07-19
  • Семантика и интент

  • SERP

  • Поведенческие сигналы

seohardcore