SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google агрегирует и ранжирует пользовательские метки для идентификации объектов в Визуальном поиске (Google Lens)

PRESENTING IMAGE SEARCH RESULTS (Представление результатов поиска по изображениям)
  • US9424279B2
  • Google LLC
  • 2013-03-08
  • 2016-08-23
  • Мультимедиа
  • Семантика и интент
  • SERP
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google использует этот механизм для повышения точности идентификации объектов при поиске по изображению. Система находит множество визуально похожих изображений, загруженных пользователями (UGC), и анализирует их текстовые метки. Метки группируются по смыслу, а затем эти группы ранжируются на основе совокупной визуальной релевантности. Это позволяет определить наиболее вероятное название объекта, опираясь на коллективное мнение.

Описание

Какую проблему решает

Патент решает проблему неоднозначности и шума при идентификации объектов в системах визуального поиска, которые используют пользовательский контент (UGC). Когда пользователи загружают изображения одного и того же объекта, они часто используют разные формулировки, синонимы или допускают ошибки в текстовых метках (labels или annotations). Цель изобретения — агрегировать эти разнообразные метки, определить наиболее релевантную и достоверную идентификацию объекта и представить результаты поиска в упорядоченном виде.

Что запатентовано

Запатентована система обработки запросов по изображению (Image Query), которая определяет идентичность объекта, опираясь на механизм консенсуса меток из базы UGC. Вместо выбора метки одного наилучшего визуального совпадения, система группирует метки всех релевантных совпадений по семантической схожести. Затем эти группы ранжируются на основе агрегированных оценок визуальной релевантности, и метка лидирующей группы выбирается в качестве ответа.

Как это работает

Система работает следующим образом:

  • Сбор данных: Система накапливает базу UGC, где каждая единица состоит из изображения и текстовой метки.
  • Обработка запроса: Пользователь отправляет изображение в качестве запроса (например, через Google Lens).
  • Визуальный поиск и оценка: Система находит набор визуально похожих изображений в базе UGC и присваивает каждому Image Match Score (оценку визуальной релевантности).
  • Фильтрация и Корректировка: Результаты могут фильтроваться для обеспечения разнообразия (например, не более одного лучшего результата от одного пользователя) и корректироваться (например, повышение оценки за географическую близость — Geo-boost).
  • Группировка меток: Система анализирует текстовые метки найденных изображений, используя edit distance и анализ семантической близости, и объединяет похожие метки в группы (кластеры).
  • Ранжирование групп: Для каждой группы рассчитывается Group Score путем агрегации (например, суммирования или усреднения) Image Match Scores всех изображений в этой группе.
  • Вывод результата: Группы сортируются по Group Score. Метка группы с наивысшим рейтингом (Representative Annotation) предоставляется пользователю как результат идентификации объекта.

Актуальность для SEO

Высокая. Визуальный поиск (Google Lens) является стратегическим направлением развития Google. Идентификация объектов, товаров и мест по фотографии — ключевая функция мобильного поиска в 2025 году. Механизмы, описанные в патенте для агрегации и валидации данных на основе коллективного мнения (UGC меток), критически важны для обеспечения точности и масштабируемости таких систем.

Важность для SEO

Патент имеет высокое значение (75/100) для стратегий оптимизации под Визуальный поиск (Visual Search Optimization, VSO). Он демонстрирует, как Google определяет каноническое название для визуальных объектов, используя консенсус. Это критически важно для E-commerce и Локального SEO. Понимание этого процесса подчеркивает важность обеспечения того, чтобы визуальное представление продукта или сущности соответствовало общепринятым текстовым наименованиям, а также важность географических сигналов и качества изображений.

Детальный разбор

Термины и определения

Annotation / Label (Аннотация / Метка)
Текстовая строка, связанная с изображением, описывающая его содержание. Предоставляется пользователем при загрузке контента.
Content Submission (Предоставленный контент)
Единица пользовательского контента (UGC), включающая изображение и связанную с ним метку.
Contributor (Участник / Контрибьютор)
Пользователь или устройство, предоставившее Content Submission. Используется для обеспечения разнообразия результатов (Diversity).
Edit Distance (Расстояние редактирования)
Метрика для измерения текстовой схожести между двумя метками (например, расстояние Левенштейна). Используется для группировки меток с опечатками или близкими написаниями.
Geo-boost factor (Фактор географического повышения)
Множитель, применяемый к Image Match Score, если географическое расстояние между местом загрузки изображения и текущим местоположением пользователя, отправившего запрос, невелико.
Group Score (Оценка группы)
Агрегированная оценка для группы изображений с похожими метками. Рассчитывается на основе Image Match Scores изображений в группе (например, сумма или среднее значение).
Image Match Score / Query Relevance Score (Оценка совпадения изображения / Оценка релевантности запросу)
Числовая оценка, отражающая степень визуального сходства между загруженным изображением и изображением в запросе.
Image Query (Запрос по изображению)
Поисковый запрос, в котором в качестве входных данных используется изображение (Query-by-Image).
Match Aggregator (Агрегатор соответствий)
Компонент системы, отвечающий за фильтрацию, группировку (кластеризацию) и оценку результатов поиска.
Representative Annotation (Репрезентативная аннотация)
Текстовая метка, выбранная для представления группы изображений с наивысшим Group Score, которая возвращается пользователю в качестве результата поиска.
Similar Meanings (Схожие значения)
Мера семантической близости между метками. Используется для группировки синонимов и связанных понятий.

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает основной метод идентификации объекта на основе агрегации и ранжирования пользовательских меток.

  1. Система получает поисковый запрос от пользователя, включающий query image.
  2. Система находит набор submitted images (загруженных другими пользователями), которые визуально похожи на query image.
  3. Для каждого найденного изображения определяется (i) query relevance score (визуальное сходство) и (ii) связанная с ним annotation (метка).
  4. Изображения группируются на основе их аннотаций.
  5. Для каждой группы агрегируются query relevance scores изображений, входящих в эту группу.
  6. Выбирается конкретная группа на основе наивысшей агрегированной оценки.
  7. Аннотация этой выбранной группы определяется как representative annotation.
  8. Эта representative annotation предоставляется пользователю на странице результатов поиска.

Ядро изобретения — использование визуальной релевантности (Query Relevance Score) в качестве весового коэффициента для каждой аннотации. Метка, поддержанная наиболее сильными визуальными доказательствами (т.е. изображениями, которые лучше всего соответствуют запросу), побеждает в ранжировании.

Claim 2 (Зависимый): Уточняет механизм группировки. Группировка основана на определении edit distances или similar meanings между аннотациями. Это подтверждает использование как синтаксического, так и семантического анализа для кластеризации меток.

Claim 3 (Зависимый): Уточняет формат вывода. Система может предоставить ранжированный список репрезентативных аннотаций из нескольких групп, упорядоченный по агрегированным оценкам. Это позволяет показать пользователю самые популярные варианты идентификации.

Claim 4 (Зависимый): Описывает механизм обеспечения разнообразия (Diversity) и защиты от спама. Если несколько похожих изображений были загружены одним и тем же пользователем, в финальный набор включается только одно из этих изображений. Это предотвращает доминирование одного источника.

Claim 5 (Зависимый): Указывает на использование географических сигналов. Отбор похожих изображений может основываться на geographical locations, откуда эти изображения были загружены.

Claim 8 (Зависимый): Уточняет метод агрегации оценок (Нормализация). Агрегированная оценка может являться средним значением (average) оценок релевантности для всех изображений в группе. Это помогает сбалансировать влияние размера группы.

Где и как применяется

Изобретение применяется в системах визуального поиска, таких как Google Lens, где пользователь использует изображение для получения информации.

INDEXING – Индексирование и извлечение признаков
На этом этапе система обрабатывает пользовательский контент (UGC). Сохраняются изображения, текстовые метки (Labels) и метаданные (геолокация, ID пользователя). Извлекаются визуальные признаки для последующего сравнения.

RANKING – Ранжирование
При получении Image Query система выполняет поиск визуально похожих изображений в индексе. Вычисляются базовые Image Match Scores (Query Relevance Scores) для кандидатов.

RERANKING – Переранжирование
Основная логика патента реализуется здесь, компонентом Match Aggregator:

  1. Корректировка оценок: Image Match Scores могут быть скорректированы с учетом географической близости (Geo-boost).
  2. Фильтрация (Diversity): Применяется логика для выбора только одного лучшего результата от каждого уникального пользователя (Contributor).
  3. Группировка (Clustering): Система анализирует схожесть меток (синтаксическую и семантическую) и формирует группы.
  4. Вычисление Group Scores: Рассчитываются и нормализуются итоговые оценки для групп.
  5. Финальная сортировка: Группы ранжируются для определения Representative Annotation.

Входные данные:

  • Изображение запроса (Image Query).
  • Местоположение пользователя, отправившего запрос (опционально).
  • База данных UGC (изображения, метки, метаданные о местоположении и авторах).

Выходные данные:

  • Отсортированный список Representative Annotations (текстовых идентификаций объекта), ранжированный по Group Score.

На что влияет

  • Специфические запросы: Влияет исключительно на запросы типа Query-by-Image (визуальный поиск), направленные на идентификацию объектов.
  • Конкретные ниши или тематики:
    • E-commerce: Критически важно для идентификации конкретных моделей товаров по фотографии (Visual Shopping).
    • Local Search: Важно для распознавания достопримечательностей, зданий, вывесок, магазинов. Использование Geo-boost повышает значимость для локального SEO.
  • Типы контента: Наибольшее влияние на контент, который часто фотографируется и загружается пользователями (UGC).

Когда применяется

  • Условия работы алгоритма: Алгоритм применяется, когда поисковая система обрабатывает запрос, состоящий из изображения, и использует для его анализа базу данных аннотированного пользовательского контента.
  • Триггеры активации: Активируется при наличии нескольких визуальных совпадений с различными текстовыми метками, что требует агрегации и разрешения неоднозначности для выбора наилучшего ответа.

Пошаговый алгоритм

Процесс обработки запроса по изображению:

  1. Получение запроса: Система получает Image Query от пользователя.
  2. Идентификация результатов и Оценка: Система находит набор визуально релевантных Content Submissions в базе UGC. Для каждого результата рассчитывается Image Match Score.
  3. Корректировка оценок (Опционально): Image Match Scores корректируются на основе географического расстояния между пользователем и источником изображения (применение Geo-boost factor).
  4. Фильтрация по контрибьюторам (Опционально): Из набора результатов удаляются дубликаты от одного и того же пользователя, оставляя только результат с наивысшим Image Match Score для каждого уникального автора.
  5. Анализ схожести меток: Система вычисляет схожесть между текстовыми метками оставшихся результатов, используя edit distance и/или семантический анализ (similar meanings).
  6. Группировка результатов (Кластеризация): Результаты объединяются в группы на основе схожести их меток.
  7. Вычисление оценок групп: Для каждой группы рассчитывается Group Score путем агрегации (суммирования) Image Match Scores всех результатов в группе.
  8. Нормализация и Сортировка: Group Scores могут быть нормализованы (например, расчет среднего значения) и отсортированы по убыванию.
  9. Выбор и предоставление результата: Метка группы с наивысшим итоговым баллом выбирается как Representative Annotation и предоставляется пользователю.

Какие данные и как использует

Данные на входе

Патент описывает использование следующих типов данных:

  • Мультимедиа факторы: Визуальные данные (пиксели, извлеченные признаки) изображений из запроса и из базы UGC. Это основа для расчета визуального сходства.
  • Контентные факторы (UGC Метки): Текстовые метки (Labels/Annotations), связанные с изображениями в базе UGC. Используются для группировки и идентификации объекта.
  • Географические факторы: Местоположение, связанное с загруженным изображением, и текущее местоположение пользователя, отправившего запрос. Используются для корректировки оценок (Geo-boost).
  • Пользовательские факторы: Идентификатор пользователя (Contributor), загрузившего контент. Используется для обеспечения разнообразия результатов (фильтрация дубликатов от одного автора).

Какие метрики используются и как они считаются

  • Image Match Score (Query Relevance Score): Оценка визуального сходства между запросом и изображением из базы. Методы расчета в патенте не детализированы.
  • Geo-boost factor: Коэффициент, увеличивающий Image Match Score. Рассчитывается как функция расстояния: чем меньше расстояние, тем выше фактор.
  • Оценка схожести меток: Метрика, основанная на:
    • Edit distance (например, Левенштейна) для синтаксической близости.
    • Семантической близости (similar meanings) для учета синонимов.
  • Group Score: Агрегированная оценка группы. Рассчитывается как сумма Image Match Scores результатов в группе.
  • Normalized Group Score: Патент упоминает возможность нормализации, например, расчет среднего значения (Claim 8), для финального ранжирования групп.

Выводы

  1. Приоритет коллективной интерпретации (Консенсус): Патент показывает, что при идентификации объекта по изображению Google использует «мудрость толпы». Система агрегирует текстовые метки множества визуально похожих изображений для выбора наиболее достоверной интерпретации.
  2. Визуальное сходство как вес голоса: Image Match Score является критически важной метрикой. Чем лучше изображение соответствует запросу визуально, тем больший вес имеет его текстовая метка при расчете Group Score.
  3. Семантическая и синтаксическая группировка меток: Система не просто ищет точные совпадения текста. Она группирует метки, используя edit distance и анализ семантической близости (similar meanings), что позволяет объединять синонимы, опечатки и близкие формулировки в один кластер.
  4. Важность контекстуальных сигналов (Гео и Авторство): Географическая близость (Geo-boost) является явным фактором повышения релевантности, что критично для локального визуального поиска.
  5. Механизмы обеспечения разнообразия и защиты от спама: В патенте предусмотрена защита от манипуляций путем ограничения вклада одного Contributor (не более одного лучшего результата на автора), что повышает надежность консенсуса.

Практика

Best practices (это мы делаем)

  • Оптимизация под Визуальный поиск (VSO): Обеспечивайте высокое качество и четкость изображений продуктов и локальных объектов. Это повышает вероятность корректного визуального сопоставления и получения высокого Image Match Score, что является основой ранжирования в этой системе.
  • Консистентность и каноничность текстовых меток: Убедитесь, что текстовое окружение изображений на вашем сайте (alt-тексты, заголовки, подписи, разметка Schema.org) соответствует тому, как пользователи (UGC) и другие авторитетные источники называют этот объект. Эта консистентность поможет вашему контенту ассоциироваться с доминирующим семантическим кластером.
  • Использование географических сигналов для локального SEO: Для локального бизнеса критически важно связывать изображения с географическим контекстом (геотегирование, упоминание локации). Механизм Geo-boost дает явное преимущество результатам, находящимся поблизости от пользователя.
  • Стимулирование релевантного UGC: Поощряйте пользователей создавать и публиковать фотографии ваших продуктов или локаций (например, в Google Maps, отзывах) с корректными метками. Это увеличивает объем данных, формирующих положительный консенсус вокруг вашего объекта.

Worst practices (это делать не надо)

  • Использование неоднозначных или вводящих в заблуждение меток: Применение текстовых описаний, которые сильно отличаются от общепринятого наименования объекта. Это приведет к тому, что изображение попадет в маргинальный кластер с низким Group Score.
  • Попытки манипуляции через массовую загрузку контента: Попытки «заспамить» базу UGC множеством одинаковых изображений с нужной меткой от одного источника будут неэффективны из-за механизма фильтрации по Contributor.
  • Использование низкокачественных или стоковых изображений: Изображения, которые плохо распознаются системами визуального поиска, получат низкие Image Match Scores и снизят видимость в визуальном поиске.

Стратегическое значение

Патент подтверждает растущую важность визуального поиска и интеграцию различных типов сигналов (визуальных, текстовых, географических, пользовательских) для интерпретации контента. Стратегия SEO должна учитывать, как сущности (продукты, места) распознаются визуально. Понимание того, что идентификация опирается на агрегированное коллективное мнение, подчеркивает важность управления консистентностью брендинга во всех точках контакта, включая UGC и сторонние площадки.

Практические примеры

Сценарий: Идентификация модели товара в E-commerce через Google Lens

  1. Запрос пользователя: Покупатель фотографирует кроссовки на улице и использует Google Lens для идентификации (Image Query).
  2. Обработка Google: Система находит 50 визуально похожих изображений (UGC, каталоги магазинов).
  3. Анализ и Группировка:
    • Группа А: 30 изображений с метками, семантически близкими к «Nike Air Max 90 Infrared». Суммарный Image Match Score = 25.
    • Группа Б: 15 изображений с метками «Красные кроссовки Nike». Суммарный Image Match Score = 10.
  4. Ранжирование и Результат: Группа А имеет наивысший Group Score. Система возвращает пользователю Representative Annotation: «Nike Air Max 90 Infrared».
  5. Действие SEO-специалиста: Убедиться, что изображения этой модели на сайте магазина имеют высокое качество (для высокого Image Match Score) и сопровождаются точным названием модели в тексте и разметке, чтобы соответствовать доминирующей группе меток.

Вопросы и ответы

Какое отношение этот патент имеет к Google Lens?

Патент напрямую описывает механизмы, лежащие в основе систем типа Google Lens. Он объясняет, как система обрабатывает фотографию пользователя (Image Query) и идентифицирует объект, сравнивая его с базой данных и агрегируя текстовые метки (Labels) похожих изображений для достижения консенсуса и выбора наилучшего ответа.

Означает ли это, что Google активно использует пользовательский контент (UGC) для ранжирования?

Да, в контексте визуального поиска. Патент явно описывает использование базы данных Content Submissions (изображения и метки, загруженные пользователями) для ответа на запросы. Система агрегирует метки из UGC, чтобы определить идентичность объекта, что делает пользовательский контент критически важным источником данных для VSO.

Как система определяет, какие метки объединить в одну группу, если они написаны по-разному?

Система использует два основных подхода: Edit Distance (расстояние редактирования, которое учитывает опечатки и близкие написания) и Similar Meanings (семантическая близость). Это позволяет объединять синонимы и различные формулировки (например, «автомобиль» и «машина»), относящиеся к одному и тому же объекту.

Как рассчитывается оценка группы (Group Score)? Это сумма или среднее?

Group Score рассчитывается путем агрегации Image Match Scores (оценок визуального сходства) всех изображений в группе. Патент упоминает, что это может быть сумма оценок, но также указывает на возможность использования среднего значения (Claim 8), что служит механизмом нормализации.

Что такое «Geo-boost» и как он влияет на локальное SEO?

Geo-boost — это механизм повышения оценки результата, если географическое расстояние между пользователем, отправившим запрос, и местом, где было сделано/загружено найденное изображение, невелико. Это критически важно для локального SEO, так как при визуальном поиске (например, фотографировании здания) приоритет будет отдан локально релевантным результатам.

Можно ли манипулировать выдачей, загружая много изображений с нужной меткой?

Патент предусматривает защиту от таких манипуляций (Claim 4). Описан механизм обеспечения разнообразия, который фильтрует результаты так, чтобы от каждого уникального пользователя (Contributor) учитывался только один наилучший результат. Это предотвращает доминирование одного источника в формировании консенсуса.

Что важнее для визуального поиска согласно этому патенту: качество изображения или его текстовое описание?

Оба фактора критически важны и взаимосвязаны. Качество и четкость изображения необходимы для получения высокого Image Match Score (визуального сходства). Однако финальная идентификация объекта зависит от того, насколько это изображение и похожие на него последовательно маркируются в текстовых метках (Labels).

Как этот патент влияет на оптимизацию изображений в E-commerce?

Для E-commerce это подчеркивает необходимость использования четких изображений продуктов и обеспечения консистентности наименований. Если ваши изображения продукта визуально релевантны, а ваше наименование соответствует тому, как его называют пользователи (UGC) и конкуренты, вы увеличиваете шансы на попадание в доминирующий кластер и получение трафика из визуального поиска.

Если объект имеет несколько правильных названий, какое выберет Google?

Google выберет то название, которое связано с группой изображений, набравшей наивысший итоговый Group Score. Это означает выбор варианта, который поддержан наибольшим весом визуальных доказательств (т.е. связан с наиболее визуально релевантными изображениями). Система опирается на взвешенный консенсус.

Влияет ли этот механизм на традиционный поиск по картинкам (по текстовому запросу)?

Патент сфокусирован исключительно на поиске по изображению (Query-by-Image). Он не описывает механизмы ранжирования изображений в ответ на текстовый запрос. Однако он дает ценное понимание того, как Google интерпретирует, кластеризует и классифицирует визуальный контент, связывая его с сущностями.

Похожие патенты

Как Google комбинирует визуальное сходство и семантические метки для улучшения поиска по картинке (Visual Search)
Google использует систему поиска по изображению, которая сочетает анализ визуальных характеристик и семантических меток. Система генерирует высокоточные метки (High Confidence Labels) для изображения, анализируя текст, связанный с визуально похожими картинками в интернете. Затем она ранжирует кандидатов, используя модель визуального сходства, обученную на основе человеческих оценок, и применяет правила фильтрации для обеспечения однородности результатов.
  • US8429173B1
  • 2013-04-23
  • Семантика и интент

  • Мультимедиа

  • SERP

Как Google объединяет дубликаты изображений в кластеры и индексирует их как единое целое для улучшения визуального поиска
Google оптимизирует визуальный поиск, группируя почти идентичные изображения (измененный размер, обрезка) в единый кластер. Система индексирует не отдельные картинки, а совокупность всех визуальных признаков ("визуальных слов") из всех вариантов в кластере. Это повышает эффективность индекса и гарантирует согласованность результатов при поиске по изображению.
  • US8923626B1
  • 2014-12-30
  • Индексация

  • Мультимедиа

Как Google использует визуальное сходство для связывания изображений и видео, кластеризации выдачи и обогащения метаданных
Google анализирует визуальное содержимое изображений и ключевых кадров видео для выявления сходств. Это позволяет связывать разнотипный контент, даже если у него мало текстовых данных. Система использует эти связи для переноса метаданных (например, ключевых слов или геопозиции) от одного ресурса к другому, а также для кластеризации и смешивания изображений и видео в результатах поиска.
  • US9652462B2
  • 2017-05-16
  • Мультимедиа

  • SERP

  • Семантика и интент

Как Google кластеризует результаты поиска по картинкам и выбирает репрезентативное (каноническое) изображение для показа
Google организует результаты поиска изображений в иерархические кластеры на основе визуального сходства. Для каждого кластера выбирается «каноническое изображение» — часто это изображение с самым высоким исходным рейтингом или наиболее визуально авторитетное (с использованием метрик типа VisualRank). Эта структура определяет, как изображения группируются и какое изображение получает максимальную видимость в интерфейсе Google Images.
  • US8352465B1
  • 2013-01-08
  • Мультимедиа

  • SERP

Как Google связывает изображения с семантическими сущностями для устранения неоднозначности в поиске по картинкам
Google использует систему для понимания того, что именно изображено на картинке, связывая её с конкретной семантической сущностью (например, статьей в Wikipedia или Freebase). Это позволяет устранить неоднозначность (понимать разницу между «Ягуаром» машиной и животным) и предоставлять более точные результаты при поиске по изображению (например, в Google Lens).
  • US9171018B2
  • 2015-10-27
  • Семантика и интент

  • Knowledge Graph

  • Мультимедиа

Популярные патенты

Как Google игнорирует часто меняющийся контент и ссылки в нем, определяя "временные" блоки шаблона сайта
Google использует механизм для отделения основного контента от динамического шума (реклама, виджеты, дата). Система сравнивает разные версии одной страницы, чтобы найти часто меняющийся контент. Затем она анализирует HTML-структуру (путь) этого контента и статистически определяет, является ли этот структурный блок "временным" для всего сайта. Такой контент игнорируется при индексации и таргетинге рекламы, а ссылки в нем могут не учитываться при расчете PageRank.
  • US8121991B1
  • 2012-02-21
  • Индексация

  • Техническое SEO

  • Структура сайта

Как Google использует данные о кликах и пропусках для валидации и удаления неэффективных синонимов в поиске
Google постоянно тестирует правила подстановки (синонимы) для расширения запросов. Этот патент описывает механизм оценки эффективности этих правил с помощью анализа поведения пользователей (клики и пропуски результатов). Если пользователи часто пропускают результаты, содержащие подставленный термин, система автоматически удаляет это правило, очищая понимание запросов от нерелевантных синонимов.
  • US8965875B1
  • 2015-02-24
  • Поведенческие сигналы

  • Семантика и интент

  • EEAT и качество

Как Google использует анкорный текст входящих ссылок для определения синонимов и псевдонимов сущностей в Knowledge Graph
Google автоматически определяет синонимы и псевдонимы для сущностей (например, людей, компаний) в своем хранилище фактов (Knowledge Graph). Система анализирует анкорный текст ссылок, ведущих на исходные документы, из которых были извлечены факты о сущности. Это позволяет системе понять, что, например, "Биг Блю" и "IBM" относятся к одной и той же компании.
  • US8738643B1
  • 2014-05-27
  • Knowledge Graph

  • Семантика и интент

  • Ссылки

Как Google агрегирует, оценивает и ранжирует комментарии, отзывы и упоминания о веб-странице из разных источников
Google собирает комментарии, отзывы и посты в блогах, относящиеся к определенной веб-странице. Система использует сложные алгоритмы для определения основной темы упоминаний (особенно если в них несколько ссылок) и ранжирует эти комментарии на основе авторитетности автора, свежести, качества языка и обратной связи пользователей, чтобы представить наиболее полезные мнения.
  • US8745067B2
  • 2014-06-03
  • EEAT и качество

  • Свежесть контента

  • Семантика и интент

Как Google использует анализ аномалий в показах и кликах для выявления фейковых локальных бизнес-листингов (Map Spam)
Google анализирует статистику взаимодействий (кликов) для групп связанных бизнес-листингов (Common Business). Система вычисляет статистически нормальный уровень активности и устанавливает порог (Anomaly Detection Threshold). Резкий всплеск активности выше этого порога (например, на два стандартных отклонения) сигнализирует о наличии фейковых или спамных листингов, созданных для манипуляции локальной выдачей.
  • US20150154610A1
  • 2015-06-04
  • Local SEO

  • Антиспам

  • Поведенческие сигналы

Как Google использует атрибуты пользователей и показатели предвзятости (Bias Measures) для персонализации ранжирования
Google анализирует, как разные группы пользователей (сегментированные по атрибутам, таким как интересы или демография) взаимодействуют с документами. Система вычисляет «показатель предвзятости» (Bias Measure), который показывает, насколько чаще или реже определенная группа взаимодействует с документом по сравнению с общей массой пользователей. При поиске Google определяет атрибуты пользователя и корректирует ранжирование, повышая или понижая документы на основе этих показателей предвзятости.
  • US9436742B1
  • 2016-09-06
  • Персонализация

  • Поведенческие сигналы

  • SERP

Как Google определяет интент запроса, анализируя классификацию контента, который кликают пользователи
Google использует данные о поведении пользователей для классификации запросов. Система определяет, какой контент пользователи считают наиболее релевантным для запроса (на основе кликов и времени пребывания). Затем она анализирует классификацию этого контента (например, «продукт», «новости», «взрослый контент») и присваивает доминирующую классификацию самому запросу. Это позволяет уточнить интент и скорректировать ранжирование.
  • US8838587B1
  • 2014-09-16
  • Семантика и интент

  • Поведенческие сигналы

  • SERP

Как Google ранжирует сущности (например, людей с одинаковыми именами) с помощью кластеризации, контекстной авторитетности и персонализации
Google использует систему двухуровневого ранжирования для обработки неоднозначных запросов (например, имен людей). Сначала ресурсы группируются в кластеры, представляющие разные сущности. Ресурсы внутри кластера ранжируются на основе их качества и авторитетности внутри этого кластера. Затем сами кластеры ранжируются с учетом релевантности запросу и сильной персонализации (социальные связи и местоположение пользователя).
  • US8645393B1
  • 2014-02-04
  • Персонализация

  • Семантика и интент

  • SERP

Как Google использует контекст пользователя для предоставления информации без явного запроса (Технология предиктивного поиска)
Google использует технологию предиктивного (проактивного) поиска, которая анализирует текущий контекст пользователя (местоположение, время, календарь, скорость движения, привычки) для автоматического предоставления релевантной информации. Система реагирует на «запрос без параметров» (например, открытие приложения или простое действие с устройством) и самостоятельно определяет информационные потребности пользователя.
  • US8478519B2
  • 2013-07-02
  • Персонализация

  • Семантика и интент

  • Поведенческие сигналы

Как Google комбинирует визуальное сходство и поведение пользователей для переранжирования поиска по картинкам
Google использует механизм для перекрестной проверки релевантности изображений, объединяя поведенческие сигналы (клики) с визуальным анализом. Если изображение часто кликают и оно визуально похоже на другие релевантные изображения по запросу (совместная релевантность), его рейтинг агрессивно повышается. Если оно редко кликается и визуально отличается (совместная нерелевантность), его рейтинг понижается. Это защищает выдачу от кликбейта.
  • US8209330B1
  • 2012-06-26
  • Поведенческие сигналы

  • SERP

  • Мультимедиа

seohardcore