SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google объединяет текстовые описания с разных сайтов для улучшения поиска по картинкам

SYSTEMS AND METHODS FOR USING IMAGE DUPLICATES TO ASSIGN LABELS TO IMAGES (Системы и методы использования дубликатов изображений для присвоения меток изображениям)
  • US7460735B1
  • Google LLC
  • 2004-09-28
  • 2008-12-02
  • Мультимедиа
  • Индексация
  • Семантика и интент
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google улучшает поиск по картинкам, находя дубликаты или похожие изображения на разных сайтах. Система собирает все текстовые метки (из alt-текста, заголовков, окружающего текста), связанные с каждой копией изображения, объединяет их в единый набор и присваивает его всем копиям. Это позволяет находить изображение по любому из описаний, использованных в сети.

Описание

Какую проблему решает

Патент решает проблему неполноты и контекстной зависимости текстовых меток (labels), присваиваемых изображениям. Стандартные методы полагаются на текст, окружающий изображение на конкретной странице (имя файла, подпись, заголовок). Если одно и то же изображение используется на разных сайтах в разном контексте, оно получает разные метки. Это ухудшает поиск, так как изображение может быть не найдено по ключевому слову, которое использовалось для его описания на другом сайте.

Что запатентовано

Запатентована система для улучшения качества поиска по изображениям путем обогащения их текстовых описаний. Система идентифицирует дубликаты или очень похожие изображения в индексе, агрегирует все текстовые метки (labels), связанные с каждым экземпляром этого изображения, и присваивает этот объединенный набор меток (superset of labels) всем экземплярам.

Как это работает

Механизм работает в несколько этапов:

  • Идентификация дубликатов: Система анализирует корпус изображений, используя методы визуального анализа (например, вейвлеты или гистограммы), чтобы найти идентичные или похожие изображения.
  • Извлечение меток: Для каждого найденного дубликата извлекаются существующие текстовые метки, полученные из контекста хост-страницы.
  • Конкатенация (Объединение): Извлеченные метки объединяются в единый набор (superset). Это может быть полное объединение или селективное, основанное на частотности меток или степени визуального сходства изображений.
  • Присвоение: Объединенный набор меток присваивается всем идентифицированным дубликатам.
  • Поиск: При выполнении поиска по ключевым словам система использует эти обогащенные наборы меток.

Актуальность для SEO

Высокая. Хотя патент опубликован в 2008 году, описанный в нем принцип агрегации сигналов из множества источников (Signal Boosting) является фундаментальным для современных поисковых систем. Понимание того, как Google объединяет контекст из разных источников для интерпретации визуального контента, критически важно для эффективного Image SEO.

Важность для SEO

Патент имеет высокое значение для стратегий продвижения в поиске по картинкам (Image SEO). Он демонстрирует, что контекст, в котором изображение используется на внешних сайтах, напрямую влияет на его ранжирование. Это подчеркивает важность не только оптимизации изображений на своем сайте, но и стратегий распространения визуального контента (Image Link Building).

Детальный разбор

Термины и определения

Duplicate Images (Дубликаты изображений)
Изображения, которые идентифицированы системой как идентичные или существенно похожие (substantially similar) на основе методов визуального анализа.
Image Analysis Techniques (Методы анализа изображений)
Техники, используемые для обнаружения дубликатов. В патенте упоминаются цветовые гистограммы (color histograms), интенсивность изображений (image intensities), детекторы границ (edge detectors) и вейвлеты (wavelets).
Labels (Метки)
Текстовые ключевые слова или описания, присвоенные изображению. Обычно извлекаются из окружающего текста на странице, где размещено изображение (имя файла, анкорный текст, подпись, заголовок документа).
Superset of Labels / Concatenated Labels (Суперсет меток / Объединенные метки)
Агрегированный набор меток, полученный путем объединения (конкатенации) меток, извлеченных со всех идентифицированных дубликатов изображения.

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает основной метод работы системы.

  1. Получение множества изображений.
  2. Анализ изображений для идентификации набора дубликатов с использованием хотя бы одного из методов: гистограммы, интенсивность, детекторы границ, вейвлеты.
  3. Извлечение меток (labels), присвоенных изображениям из набора дубликатов.
  4. Конкатенация (объединение) выбранных извлеченных меток.
  5. Присвоение объединенных меток (concatenated labels) по крайней мере некоторым изображениям из набора дубликатов.
  6. Хранение информации об объединенных метках.

Claim 3 (Зависимый): Уточняет процесс объединения. Он может включать ассоциацию всех извлеченных меток с каждым изображением из набора дубликатов.

Claim 5 и 6 (Зависимые): Описывают селективную конкатенацию.

  1. Метки объединяются на основе статистических данных.
  2. Статистические данные могут включать частоту использования (frequency of use) метки или ее распространенность (commonality). Это механизм фильтрации шума: если метка встречается часто среди дубликатов, она с большей вероятностью релевантна.

Claim 7 и 8 (Зависимые): Описывают взвешивание меток при объединении.

  1. Меткам присваиваются веса (weights).
  2. Более высокие веса присваиваются меткам, полученным от изображений, которые более похожи на целевое изображение (designated image).
  3. Селективная конкатенация может основываться на этих весах.

Claim 11 (Зависимый): Описывает использование меток в поиске.

  1. Система может присваивать разные веса исходным извлеченным меткам (original labels) и объединенным меткам (concatenated labels).
  2. Оба типа меток используются при выполнении поиска по ключевым словам на основе присвоенных весов.

Где и как применяется

Изобретение применяется в основном на этапе индексирования и влияет на этап ранжирования в контексте поиска по изображениям.

CRAWLING – Сканирование и Сбор данных
Система собирает изображения и документы, в которых они размещены, а также окружающий их текст.

INDEXING – Индексирование и извлечение признаков
Основной этап применения патента. Происходит несколько процессов:

  1. Извлечение исходных меток: Система извлекает labels из контекста хост-документа (имя файла, подпись и т.д.).
  2. Визуальный анализ: Обработка пиксельных данных для расчета признаков (например, вейвлет-коэффициентов).
  3. Обнаружение дубликатов: Сравнение визуальных признаков изображений для выявления дубликатов или похожих изображений.
  4. Агрегация сигналов (Конкатенация): Система собирает метки со всех дубликатов и формирует superset of labels.
  5. Обновление индекса: Обогащенный набор меток сохраняется в индексе и ассоциируется с соответствующими изображениями.

RANKING – Ранжирование
Когда пользователь вводит запрос для поиска изображений, система ищет совпадения не только в исходных метках изображения, но и в агрегированном superset of labels. При расчете релевантности могут использоваться разные веса для исходных и агрегированных меток.

Входные данные:

  • Пиксельные данные изображений.
  • Документы, содержащие изображения.
  • Исходные текстовые метки (labels), связанные с каждым изображением.

Выходные данные:

  • Индекс изображений, где с каждым изображением ассоциирован обогащенный набор меток (superset of labels).

На что влияет

  • Конкретные типы контента: Влияет на все типы цифровых изображений, которые индексируются поисковой системой.
  • Конкретные ниши или тематики: Наибольшее влияние наблюдается в нишах, где изображения часто копируются и используются повторно:
    • E-commerce: Фотографии товаров, используемые разными продавцами и обзорными сайтами.
    • Новости и медиа: Фотографии событий или стоковые изображения, используемые разными изданиями с разными подписями.
    • Инфографика и виральный контент: Изображения, которые активно распространяются в сети.

Когда применяется

  • Условия применения: Алгоритм активируется, когда система обнаруживает два или более изображения, которые классифицируются как дубликаты или существенно похожие.
  • Частота применения: Процесс выполняется во время индексирования или повторного индексирования изображений и веб-страниц, на которых они размещены.

Пошаговый алгоритм

Описан процесс обогащения меток изображений.

  1. Идентификация дубликатов изображений: Анализ корпуса изображений для поиска дубликатов. Используются методы визуального сравнения (например, сравнение вейвлет-коэффициентов, гистограмм).
  2. Извлечение присвоенных меток: Для каждого изображения из группы дубликатов система извлекает существующие текстовые метки (labels).
  3. Конкатенация (Объединение) извлеченных меток: Формирование superset of labels. Этот этап может включать несколько вариантов реализации:
    • Полное объединение: Все метки со всех дубликатов объединяются.
    • Селективное объединение на основе статистики: Включение меток в суперсет на основе их частоты использования среди дубликатов или общей распространенности.
    • Селективное объединение на основе весов: Меткам присваиваются веса (например, на основе степени визуального сходства изображений), и в суперсет включаются метки с весом выше порога.
    • Суммаризация: Использование техник суммаризации текста для сокращения итогового набора меток.
  4. Присвоение объединенных меток: Сформированный superset of labels присваивается каждому изображению в группе дубликатов.
  5. Использование в поиске: При обработке поисковых запросов система использует объединенные метки. Может применяться взвешивание, при котором исходным меткам и объединенным меткам присваиваются разные веса.

Какие данные и как использует

Данные на входе

Система использует два основных типа данных: визуальные и контекстные.

  • Мультимедиа факторы (Визуальные данные):
    • Пиксельные данные изображений. Они используются для анализа визуального сходства и обнаружения дубликатов.
  • Контентные факторы (Контекстные данные):
    • Текст, окружающий изображение на хост-странице, который используется для генерации исходных labels. В патенте явно упоминаются:
      • Имя файла изображения (filename).
      • Анкорный текст (anchor text), связанный с изображением.
      • Подпись (caption), связанная с изображением.
      • Заголовок документа (document title).

Какие метрики используются и как они считаются

  • Метрики визуального сходства: Рассчитываются для определения того, являются ли два изображения дубликатами. Используются гистограммы, интенсивность, детекторы границ или вейвлеты. В одном из примеров описывается сравнение знаков (+1, -1, 0) коэффициентов вейвлет-преобразования.
  • Статистические данные меток: Используются для селективной конкатенации. Включают:
    • Frequency of use (Частота использования): Как часто конкретная метка встречается среди всех дубликатов.
    • Commonality (Распространенность): Насколько распространена метка в языке.
  • Weights (Веса):
    • Веса на основе сходства: Присваиваются меткам в зависимости от того, насколько визуально похожи исходное и целевое изображения.
    • Веса при ранжировании: Присваиваются различным типам меток (исходным и объединенным) при выполнении поиска.

Выводы

  1. Агрегация контекста (Signal Boosting): Ключевой вывод — Google не полагается исключительно на контекст хост-страницы для понимания изображения. Система активно ищет дубликаты изображения в сети и агрегирует все связанные с ними текстовые описания.
  2. Внешний контекст критически важен: То, как другие сайты описывают изображение (в подписях, alt-текстах, окружающем тексте), напрямую влияет на его семантический профиль и ранжирование. Это фактически механизм, аналогичный ссылочному ранжированию, но для контекста изображений.
  3. Механизмы фильтрации и взвешивания: Система не просто объединяет все метки. Она может применять селективные механизмы, основанные на статистике (частотность меток) и весах (степень визуального сходства), чтобы отфильтровать шум и выделить наиболее релевантные описания.
  4. Дифференциация весов при ранжировании: Патент предполагает, что метки, полученные с хост-страницы (исходные), и метки, полученные от дубликатов (объединенные), могут иметь разный вес при расчете релевантности запросу.
  5. Ранжирование по отсутствующим ключам: Этот механизм объясняет, почему изображение может ранжироваться в Image Search по ключевым словам, которых нет ни в alt-тексте, ни на самой странице — эти ключевые слова были взяты из контекста другой копии изображения на другом сайте.

Практика

Best practices (это мы делаем)

  • Стратегическое распространение изображений (Image Link Building): Необходимо стимулировать использование ваших ключевых изображений (например, инфографики, уникальных фотографий продуктов) на авторитетных внешних ресурсах. Критически важно, чтобы эти изображения сопровождались релевантным и точным текстовым окружением, так как этот контекст будет агрегирован Google и присвоен вашему изображению.
  • Уникализация визуального контента: По возможности создавайте и используйте уникальные изображения. Это позволяет контролировать их семантический профиль. При использовании стоковых фото существует риск, что Google объединит метки с сотен других сайтов, что может размыть релевантность или привести нецелевой трафик.
  • Максимизация исходного контекста: Обеспечивайте максимально полное и релевантное описание изображения на своем сайте (оптимизированные alt-атрибуты, подписи, имена файлов, окружающий текст). Согласно патенту (Claim 11), исходным меткам может придаваться больший вес при ранжировании по сравнению с агрегированными.
  • Мониторинг использования изображений: Используйте инструменты обратного поиска по изображениям, чтобы отслеживать, кто использует ваш контент и в каком контексте. При необходимости связывайтесь с владельцами сайтов для корректировки описаний.

Worst practices (это делать не надо)

  • Использование популярных стоковых фото для ключевых страниц: Полагаться на стоковые изображения для привлечения релевантного трафика неэффективно. Их семантика определяется множеством других сайтов, и вы не можете ее контролировать.
  • Игнорирование контекста при дистрибуции: Предоставление изображений партнерам, ритейлерам или СМИ без рекомендаций по их описанию приводит к потере контроля над семантическим профилем контента.
  • Манипуляции через PBN или спам-ресурсы: Попытки искусственно создать нужный контекст путем размещения изображений на контролируемых низкокачественных сайтах, вероятно, будут неэффективны. Механизмы селективного объединения (например, анализ частотности меток) могут отфильтровать такие сигналы как шум.

Стратегическое значение

Патент подтверждает, что Image SEO выходит далеко за рамки оптимизации атрибутов alt и имен файлов. Это комплексная стратегия, включающая создание уникального визуального контента и управление его распространением и контекстуализацией во всей экосистеме интернета. Google рассматривает контекст изображения как сумму всех его упоминаний в сети, что делает стратегии контент-маркетинга и PR критически важными для видимости в Image Search.

Практические примеры

Сценарий: Оптимизация и дистрибуция фотографии товара (E-commerce)

  1. Создание контента: Интернет-магазин делает уникальную фотографию нового продукта, например, "Кофемашина Модель XZ100".
  2. Исходная оптимизация: Изображение размещается на сайте магазина. Исходные метки (labels) включают: имя файла "kofemashina-xz100.jpg", alt-текст "Кофемашина Модель XZ100, вид спереди", и окружающий текст с техническими характеристиками.
  3. Дистрибуция: Магазин предоставляет это фото трем крупным ритейлерам и двум обзорным сайтам.
    • Ритейлер 1 использует контекст: "Купить XZ100 недорого".
    • Обзорный сайт 1 использует контекст: "Лучшая кофемашина для эспрессо 2025 года".
  4. Обработка Google: Google находит все эти экземпляры, идентифицирует их как дубликаты с помощью визуального анализа.
  5. Агрегация: Система объединяет метки: "Кофемашина Модель XZ100", "вид спереди", "технические характеристики", "купить недорого", "лучшая кофемашина для эспрессо 2025".
  6. Результат: Исходное изображение в магазине начинает ранжироваться в Image Search не только по модели, но и по информационным запросам, связанным с обзорами и рейтингами, благодаря контексту, полученному с внешних сайтов.

Вопросы и ответы

Как этот патент влияет на использование стоковых фотографий?

Использование стоковых фото становится рискованным с точки зрения SEO. Поскольку сотни сайтов используют одно и то же изображение в разном контексте, Google объединит все эти метки. Это может привести к размытию релевантности вашего контента или привлечению нецелевого трафика, так как семантика изображения определяется не вами, а всеми остальными пользователями.

Что важнее: как я опишу изображение на своем сайте или как его опишут другие?

Важны оба аспекта. Патент (Claim 11) указывает, что система может присваивать разные веса исходным меткам (с вашего сайта) и объединенным меткам (с других сайтов). Лучшая стратегия — обеспечить максимально точное описание на своем сайте и работать над тем, чтобы внешние ресурсы также использовали релевантный контекст.

Как Google определяет, какие метки включить в итоговый набор, а какие игнорировать?

Патент описывает механизмы селективной конкатенации. Система может использовать статистические данные, такие как частота использования метки среди всех дубликатов (Claim 5 и 6). Если метка встречается часто, она с большей вероятностью будет включена. Также могут использоваться веса, основанные на степени визуального сходства изображений (Claim 7).

Может ли этот механизм навредить моему сайту, если конкуренты начнут использовать мои изображения в негативном контексте?

Теоретически, да, если негативный контекст станет доминирующим. Однако механизмы селективной конкатенации, основанные на частотности и, вероятно, качестве источников (хотя качество источников в этом патенте не упоминается), должны фильтровать такие манипуляции. Сосредоточьтесь на создании сильного позитивного контекста на авторитетных ресурсах.

Что такое "Image Link Building" в контексте этого патента?

Это стратегия распространения ваших изображений с целью получения упоминаний на внешних авторитетных сайтах с релевантным текстовым окружением. Аналогично тому, как входящие ссылки передают авторитет, внешнее использование вашего изображения с правильным контекстом передает семантическую релевантность этому изображению.

Как система отличает точный дубликат от похожего изображения?

Система использует методы визуального анализа, такие как гистограммы, интенсивность или вейвлеты. Патент упоминает, что идентифицируются как идентичные, так и "существенно похожие" (substantially similar) изображения. Степень сходства может влиять на вес меток при объединении (Claim 7).

Если я немного изменю стоковое фото (например, обрежу или добавлю логотип), поможет ли это избежать объединения меток?

Это зависит от того, насколько сильно изменится изображение и насколько чувствительны алгоритмы обнаружения дубликатов. Если система все еще классифицирует его как "существенно похожее", метки будут объединены. Однако патент предполагает (Claim 7), что меткам от менее похожих изображений может быть присвоен меньший вес.

Какие текстовые элементы Google использует для генерации меток изображения?

Патент явно перечисляет четыре источника, которые используются для присвоения исходных меток изображению: имя файла изображения (filename), анкорный текст (anchor text), подпись (caption) и заголовок документа (document title). На практике Google использует и другие элементы окружающего текста.

Если я удалю все дубликаты изображения, кроме одного, поможет ли это консолидировать сигналы?

Патент упоминает, что если используется простая конкатенация и все дубликаты имеют одинаковый набор меток, то для экономии места в индексе или повышения эффективности во время запроса все дубликаты, кроме одного, могут быть удалены. Это стандартная практика для консолидации сигналов ранжирования.

Применяется ли этот патент только к Image Search или он влияет и на основной веб-поиск?

Патент фокусируется на улучшении поиска по изображениям (keyword-based image searching). Однако улучшенное понимание того, что изображено на картинке, может косвенно влиять на релевантность всей веб-страницы в основном поиске, особенно для запросов, где визуальный контент играет важную роль.

Похожие патенты

Как Google переводит изображения в текстовые запросы, валидируя метки через веб-поиск
Google использует эту систему для определения наилучшего текстового описания (метки) для изображения. Система тестирует различные варианты меток, используя их как поисковые запросы, и проверяет, сколько результатов поиска указывают на веб-страницы, содержащие исходное изображение. Это гарантирует, что выбранная метка точно отражает то, как изображение используется и понимается в интернете.
  • US9218546B2
  • 2015-12-22
  • Мультимедиа

  • Семантика и интент

  • Индексация

Как Google комбинирует визуальное сходство и семантические метки для улучшения поиска по картинке (Visual Search)
Google использует систему поиска по изображению, которая сочетает анализ визуальных характеристик и семантических меток. Система генерирует высокоточные метки (High Confidence Labels) для изображения, анализируя текст, связанный с визуально похожими картинками в интернете. Затем она ранжирует кандидатов, используя модель визуального сходства, обученную на основе человеческих оценок, и применяет правила фильтрации для обеспечения однородности результатов.
  • US8429173B1
  • 2013-04-23
  • Семантика и интент

  • Мультимедиа

  • SERP

Как Google использует визуальное сходство и графовый анализ (VisualRank) для валидации и ранжирования меток изображений
Google валидирует текстовые метки изображений (например, Alt-текст или имена файлов) с помощью визуального анализа. Система строит граф, связывающий визуально похожие изображения. Симулируя навигацию пользователя по этому графу (алгоритм, подобный PageRank), Google определяет, какие метки наиболее релевантны фактическому содержанию изображения, отфильтровывая шум и повышая качество поиска по картинкам.
  • US7961986B1
  • 2011-06-14
  • Мультимедиа

  • SERP

Как Google агрегирует и ранжирует пользовательские метки для идентификации объектов в Визуальном поиске (Google Lens)
Google использует этот механизм для повышения точности идентификации объектов при поиске по изображению. Система находит множество визуально похожих изображений, загруженных пользователями (UGC), и анализирует их текстовые метки. Метки группируются по смыслу, а затем эти группы ранжируются на основе совокупной визуальной релевантности. Это позволяет определить наиболее вероятное название объекта, опираясь на коллективное мнение.
  • US9424279B2
  • 2016-08-23
  • Мультимедиа

  • Семантика и интент

  • SERP

Как Google объединяет дубликаты изображений в кластеры и индексирует их как единое целое для улучшения визуального поиска
Google оптимизирует визуальный поиск, группируя почти идентичные изображения (измененный размер, обрезка) в единый кластер. Система индексирует не отдельные картинки, а совокупность всех визуальных признаков ("визуальных слов") из всех вариантов в кластере. Это повышает эффективность индекса и гарантирует согласованность результатов при поиске по изображению.
  • US8923626B1
  • 2014-12-30
  • Индексация

  • Мультимедиа

Популярные патенты

Как Google генерирует интерактивные и иерархические Sitelinks на основе структуры и популярности разделов сайта
Google анализирует навигационную иерархию сайта (DOM), популярность ссылок и глубину разделов для создания интерактивного представления ресурса (расширенных Sitelinks) в SERP. Это позволяет пользователям просматривать ключевые категории и вложенные ссылки через интерфейс вкладок, не покидая страницу результатов поиска.
  • US9348846B2
  • 2016-05-24
  • Структура сайта

  • SERP

  • Ссылки

Как Google использует машинное зрение и исторические клики для определения визуального интента и ранжирования изображений
Google использует систему, которая определяет визуальное значение текстового запроса, анализируя объекты на картинках, которые пользователи выбирали ранее по этому или похожим запросам. Система создает набор «меток контента» (визуальный профиль) для запроса и сравнивает его с объектами, распознанными на изображениях-кандидатах с помощью нейросетей. Это позволяет ранжировать изображения на основе их визуального соответствия интенту пользователя.
  • US20200159765A1
  • 2020-05-21
  • Семантика и интент

  • Мультимедиа

  • Персонализация

Как Google использует нейросетевые эмбеддинги (Two-Tower Model) для семантического поиска изображений с учетом контекста страницы
Google использует систему поиска изображений, основанную на нейронных сетях (модель "Две Башни"). Система создает векторные представления (эмбеддинги) для поисковых запросов и для пар "изображение + посадочная страница", помещая их в общее семантическое пространство. Это позволяет находить релевантные изображения не по ключевым словам, а по близости векторов, учитывая как содержание картинки, так и контекст страницы, на которой она размещена.
  • US11782998B2
  • 2023-10-10
  • Семантика и интент

  • Индексация

  • Мультимедиа

Как Google переписывает неявные запросы, определяя сущность по местоположению пользователя и истории поиска
Google использует местоположение пользователя для интерпретации запросов, которые явно не упоминают конкретную сущность (например, [часы работы] или [отзывы]). Система идентифицирует ближайшие объекты, анализирует исторические паттерны запросов для этих объектов и переписывает исходный запрос, добавляя в него название наиболее вероятной сущности.
  • US20170277702A1
  • 2017-09-28
  • Семантика и интент

  • Local SEO

  • Персонализация

Как Google комбинирует визуальное сходство и поведение пользователей для переранжирования поиска по картинкам
Google использует механизм для перекрестной проверки релевантности изображений, объединяя поведенческие сигналы (клики) с визуальным анализом. Если изображение часто кликают и оно визуально похоже на другие релевантные изображения по запросу (совместная релевантность), его рейтинг агрессивно повышается. Если оно редко кликается и визуально отличается (совместная нерелевантность), его рейтинг понижается. Это защищает выдачу от кликбейта.
  • US8209330B1
  • 2012-06-26
  • Поведенческие сигналы

  • SERP

  • Мультимедиа

Как Google идентифицирует, связывает и индексирует концепции (фразы) для понимания тем документов
Фундаментальный патент Google, описывающий переход от индексирования слов к индексированию концепций (фраз). Система определяет «хорошие фразы» на основе частотности и их способности прогнозировать появление других фраз (Information Gain). Документы индексируются не только по содержащимся в них фразам, но и по наличию связанных фраз, что позволяет системе определять основные и второстепенные темы документа, а также контекстуально оценивать анкорный текст ссылок.
  • US7536408B2
  • 2009-05-19
  • Индексация

  • Семантика и интент

  • Ссылки

Как Google использует последовательность кликов пользователей (Co-selection) для классификации изображений и фильтрации контента (SafeSearch)
Google анализирует, какие изображения пользователи выбирают последовательно в рамках одной сессии (co-selection). Если Изображение Б часто выбирается сразу после Изображения А (с известной темой), система присваивает Изображению Б ту же тему. Этот механизм использует графовый анализ поведения для уточнения тематики изображений, что критично для повышения релевантности и работы фильтров, таких как SafeSearch.
  • US8856124B2
  • 2014-10-07
  • Безопасный поиск

  • Поведенческие сигналы

  • Семантика и интент

Как Google использует реальные данные о скорости загрузки страниц (RUM) для повышения быстрых и понижения медленных сайтов в выдаче
Google собирает данные о времени загрузки страниц у реальных пользователей (RUM) и использует их для корректировки ранжирования. Система сравнивает скорость сайта с глобальными порогами, основанными на процентилях. Если сайт медленнее большинства других (например, медленнее 85% или 96%), его рейтинг понижается. Очень быстрые сайты могут получать повышение. Оценка скорости учитывает географию и тип устройства пользователя.
  • US8645362B1
  • 2014-02-04
  • Техническое SEO

  • Поведенческие сигналы

  • SERP

Как Google использует личные данные пользователя (User Model) для понимания его намерений и персонализации выдачи
Google создает персональную модель пользователя (User Model) на основе его личного контента (письма, контакты, документы). Эта модель используется для определения неявного намерения пользователя (личный поиск или общий) и для аннотирования запроса контекстом из личных данных, чтобы предоставить точные персонализированные результаты.
  • US20150012558A1
  • 2015-01-08
  • Персонализация

  • Семантика и интент

  • Поведенческие сигналы

Как Google использует фразы и тематические кластеры из истории пользователя для персонализации результатов поиска
Google может строить модель интересов пользователя, анализируя семантически значимые фразы и тематические кластеры в контенте, который пользователь потребляет (просматривает, сохраняет, печатает). При последующих запросах система повышает в ранжировании те документы, которые содержат фразы, одновременно релевантные запросу и присутствующие в профиле интересов пользователя.
  • US7580929B2
  • 2009-08-25
  • Персонализация

  • Семантика и интент

  • Поведенческие сигналы

seohardcore