SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google определяет текстовое описание изображения для визуального поиска, анализируя похожие картинки и связанные с ними запросы

QUERY BY IMAGE (Запрос по изображению)
  • US8761512B1
  • Google LLC
  • 2010-12-03
  • 2014-06-24
  • Индексация
  • Мультимедиа
  • Семантика и интент
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google использует систему визуального поиска, которая позволяет пользователям отправлять изображение в качестве запроса. Для этого система создает индекс визуальных признаков и анализирует метаданные (запросы, по которым кликали на картинку, и текст на ссылающихся страницах). При получении изображения система находит визуально похожие картинки в индексе, анализирует связанные с ними текстовые фразы (n-граммы) и выбирает наилучшее описание. Затем выполняется стандартный поиск по этому текстовому описанию.

Описание

Какую проблему решает

Патент решает задачу обработки поисковых запросов, состоящих из изображений (Query by Image или визуальный поиск). Основная цель — позволить пользователям выполнять поиск, используя картинку вместо текста, что особенно актуально, когда пользователь не знает, как описать объект, или когда ввод текста затруднен (например, на мобильных устройствах). Система стремится понять семантическое значение изображения, чтобы предоставить релевантные результаты поиска.

Что запатентовано

Запатентована система для индексации изображений и обработки визуальных запросов. Система создает индекс на основе визуальных признаков (local descriptors) и метаданных (клики, связанные запросы). Ключевым механизмом является процесс преобразования входящего изображения в текстовый запрос (derived textual query). Это достигается путем поиска визуально похожих изображений в индексе, анализа связанных с ними текстовых фраз (n-grams) и выбора наиболее точного описания. Поиск затем выполняется по этому сгенерированному тексту.

Как это работает

Система работает в две фазы:

  1. Индексация (Офлайн): Собираются изображения, фильтруются по популярности (кликам). Для каждого изображения вычисляются визуальные дескрипторы и собираются метаданные (текст запросов, текст со страниц-источников). Строится граф визуально похожих изображений (Image Affinity). На основе этого графа и метаданных система определяет, какие текстовые фразы (n-grams) лучше всего описывают кластеры похожих изображений. Создается финальный индекс.
  2. Обработка запроса (Онлайн): Пользователь загружает изображение. Система находит в индексе визуально похожие изображения. Анализируются n-grams, связанные с этими похожими изображениями. Выбирается n-gram с наивысшей оценкой в качестве текстового описания. Система выполняет поиск по этому тексту и возвращает результаты.

Актуальность для SEO

Высокая. Визуальный поиск (например, Google Lens) является критически важным компонентом современного поиска, особенно в мобильных устройствах и e-commerce. Описанные в патенте методы определения текстового значения изображения путем анализа метаданных визуально похожих картинок лежат в основе того, как поисковые системы понимают неразмеченный графический контент.

Важность для SEO

Патент имеет высокое значение (8/10) для Image SEO и продвижения сайтов с большим количеством визуального контента (e-commerce, медиа). Он раскрывает механизмы, с помощью которых Google ассоциирует изображения с текстовыми запросами. Это напрямую влияет на ранжирование изображений и подчеркивает критическую важность контекста: текста, окружающего изображение на странице, и запросов, по которым пользователи находят и кликают на это изображение.

Детальный разбор

Термины и определения

Query by Image (Запрос по изображению)
Тип поискового запроса, где в качестве входных данных используется изображение, а не текст.
Local Descriptors (Локальные дескрипторы)
Абстрактное математическое описание визуальных признаков локальной области изображения. Используются для нахождения визуальных совпадений между разными изображениями. Могут вычисляться с использованием вейвлетов (например, Gabor wavelets).
Distributed kd-tree (Распределенное kd-дерево)
Структура данных, используемая для индексации локальных дескрипторов и быстрого поиска ближайших соседей (визуально похожих признаков) в многомерном пространстве.
Image Affinity (Аффинность изображений)
Мера визуального сходства между двумя изображениями. В контексте графа изображений определяется как произведение весов ребер (оценок совпадения) вдоль максимального пути аффинности (maximum affinity path) между двумя изображениями.
N-gram (N-грамма)
Последовательность из N токенов (слов). В патенте это текстовые фразы, ассоциированные с изображением. Источники n-грамм: query phrases, по которым кликали на изображение, и текст из referrers (страниц, содержащих изображение).
Yield (Выход, Эффективность)
Метрика, используемая для оптимизации набора изображений, включаемых в финальный индекс. Максимизация Yield направлена на выбор наиболее репрезентативных изображений с максимальной разрешающей способностью для поиска, минимизируя при этом избыточность (например, удаляя дубликаты).
Selection Cost (Стоимость выбора)
Предопределенный штраф, применяемый к метрике Yield при выборе изображения для включения в финальный индекс. Используется для контроля размера индекса.
Derived Textual Query (Производный текстовый запрос)
Текстовое описание (n-gram), которое система генерирует для входного изображения-запроса путем анализа n-грамм визуально похожих изображений.
Image-specific Score (Оценка n-граммы для изображения)
Оценка, показывающая, насколько хорошо конкретная n-грамма описывает конкретное изображение. Рассчитывается на основе аффинности с соседними изображениями, которые также имеют эту n-грамму.
Overall Score (Общая оценка n-граммы)
Агрегированная оценка для n-граммы, рассчитанная на основе Image-specific Scores всех визуально похожих изображений, найденных по запросу.

Ключевые утверждения (Анализ Claims)

Патент содержит несколько групп утверждений, описывающих процесс индексации (Claim 1 и зависимые) и процесс обработки запроса (описан в Summary/Detailed Description).

Claim 1 (Независимый пункт, Фокус на индексации): Описывает метод создания поискового индекса изображений.

  1. Получение группы изображений и их метаданных.
  2. Генерация локальных дескрипторов для каждого изображения.
  3. Построение начального индекса с использованием этих дескрипторов.
  4. Генерация набора совпадающих изображений (matching images) для каждого изображения с помощью индекса. Совпадение основано на match score (визуальное сходство).
  5. Использование группы изображений и их совпадений для определения финального набора изображений (final image selection). Это включает:
    • Генерацию неориентированного графа (изображения = вершины, совпадения = взвешенные ребра).
    • Определение парной аффинности изображений (pairwise image affinity) на основе весов ребер вдоль пути в графе.
    • Выбор финального набора изображений с использованием аффинности.
  6. Расчет набора n-грамм и соответствующих оценок для каждого изображения, используя аффинность изображений и метаданные.
  7. Генерация нового (финального) индекса, используя финальный набор изображений и включая соответствующие n-граммы.

Claim 4, 11 (Зависимые): Детализируют расчет аффинности.

Pairwise image affinity определяется путем нахождения maximum affinity path (пути максимальной аффинности) между двумя изображениями в графе и рассчитывается как произведение весов ребер вдоль этого пути.

Claim 5, 12 (Зависимые): Определяют метод выбора финального набора изображений.

Выбор изображений осуществляется путем максимизации функции Yield (Выход) по всему графу. Формула Yield: Y:=Sumi(maxj(sj)(wij))−(selection cost)(si)Y := Sum_{i}(max_{j}(s_{j})(w_{ij})) - (\text{selection cost})(s_i)Y:=Sumi​(maxj​(sj​)(wij​))−(selection cost)(si​). Она балансирует выгоду от охвата изображения и затраты на его включение в индекс (selection cost).

Где и как применяется

Изобретение в основном применяется на этапах индексирования и понимания запросов в системе визуального поиска.

INDEXING – Индексирование и извлечение признаков
Это основной этап для создания инфраструктуры визуального поиска.

  • Извлечение признаков: Вычисление Local Descriptors (визуальных признаков) для изображений.
  • Сбор метаданных: Ассоциация изображений с метаданными: query phrases, click counts, referrers, text snippets.
  • Построение индекса и Анализ графа: Создание индекса (например, Distributed kd-tree), построение графа визуального сходства, расчет Image Affinity и использование этой информации для ассоциации изображений с релевантными n-grams (семантическими описаниями).
  • Оптимизация индекса: Выбор финального набора изображений путем максимизации Yield.

QUNDERSTANDING – Понимание Запросов
Когда пользователь отправляет изображение в качестве запроса, система должна интерпретировать его.

  • Система использует визуальный индекс для нахождения похожих изображений.
  • Анализируются n-grams, связанные с этими похожими изображениями.
  • Система выполняет процесс выбора наилучшей n-gram, чтобы сгенерировать Derived Textual Query. Это и есть процесс понимания семантики изображения.

RANKING – Ранжирование
После того как Derived Textual Query сгенерирован, он передается в стандартную систему ранжирования для поиска результатов (веб-страниц, других изображений и т.д.).

На что влияет

  • Конкретные типы контента: В первую очередь влияет на изображения. Особенно важно для e-commerce (товары), медиа (фотографии событий, людей), локального поиска (фотографии мест).
  • Специфические запросы: Влияет на обработку визуальных запросов (Query by Image, Google Lens). Также косвенно влияет на текстовый поиск изображений, так как определяет, какие n-grams ассоциируются с какими изображениями.

Когда применяется

  • Триггеры активации (Индексация): Алгоритм индексации применяется только к изображениям, которые удовлетворили пороговому количеству кликов (threshold number of clicks) в ответ на текстовые запросы. Это используется как фильтр популярности и релевантности.
  • Триггеры активации (Запрос): Алгоритм активируется, когда пользователь явно использует функцию визуального поиска (например, загружает изображение в поисковую строку).

Пошаговый алгоритм

Процесс А: Индексация изображений и генерация N-грамм (Офлайн)

  1. Сбор и Фильтрация Данных: Получение коллекции изображений. Отбор группы изображений, которые получили как минимум пороговое количество кликов в результатах поиска.
  2. Идентификация Метаданных: Для каждого отобранного изображения идентифицируются метаданные: query phrases, количество кликов, URL-адреса рефереров и текстовые сниппеты из них.
  3. Вычисление Визуальных Признаков: Для каждого изображения рассчитываются local descriptors (например, с использованием вейвлетов для областей интереса).
  4. Построение Начального Индекса: Генерация начального индекса (например, распределенного kd-tree) с использованием local descriptors.
  5. Идентификация Совпадений: Для каждого изображения находится набор визуально похожих изображений (matching set) с использованием индекса. Сходство оценивается с помощью Match Score.
  6. Построение Графа: Создается неориентированный граф, где изображения — это вершины, а совпадения — ребра, взвешенные по Match Score.
  7. Расчет Аффинности и Отбор Изображений: Граф обрабатывается для определения pairwise image affinity (aija_{ij}aij​) путем нахождения пути максимальной аффинности. Затем определяется финальный набор изображений путем максимизации метрики Yield (Y) по всему графу.
  8. Расчет и Валидация N-грамм: Для каждого изображения рассчитывается набор n-грамм и их Image-specific Scores (wikw_{ik}wik​). N-грамма подтверждается, если она есть у нескольких похожих изображений.
  9. Генерация Финального Индекса: Создается финальный поисковый индекс.

Процесс Б: Обработка Запроса по Изображению (Онлайн)

  1. Получение Запроса: Система получает изображение в качестве запроса.
  2. Поиск Похожих Изображений: Система запрашивает финальный индекс для получения группы визуально похожих изображений.
  3. Расчет Общих Оценок N-грамм: Система определяет Overall Score для каждой n-граммы путем агрегации Image-specific Scores от всех похожих изображений. Применяется фильтрация (стоп-слова, черные списки).
  4. Выбор Текстового Описания: Система выбирает одну n-грамму в качестве Derived Textual Query. Процесс итеративно ищет лучшую n-грамму, начиная с коротких (N=1) и переходя к более длинным, обновляя выбор, если более длинная n-грамма имеет более высокую оценку или является надстрокой (superstring) текущего лучшего варианта и превышает порог принятия.
  5. Выполнение Поиска: Система выполняет поиск, используя выбранное текстовое описание (n-грамму) в качестве текстового запроса.

Какие данные и как использует

Данные на входе

  • Контентные факторы (Визуальные): Пиксельные данные самих изображений. Используются для вычисления Local Descriptors и определения визуального сходства (с помощью вейвлетов Gabor wavelets).
  • Поведенческие факторы: Критически важные данные. Query phrases (текстовые запросы, по которым изображение показывалось в поиске). Clicks (количество выборов изображения для данной Query Phrase).
  • Ссылочные и Контекстные факторы: Referrers (URL страниц, содержащих изображение или ссылку на него). Используются text snippets с этих страниц (текст, физически близкий к изображению) и anchor text ссылок на изображение.

Какие метрики используются и как они считаются

  • Match Score (Оценка совпадения): Оценка визуального сходства между двумя изображениями на основе совпадения local descriptors.
  • Image Affinity (aija_{ij}aij​): Произведение Match Scores вдоль пути максимальной аффинности между двумя изображениями в графе.
  • Yield (Y): Метрика для оптимизации состава индекса. Формула: Y:=Sumi(maxj(sj)(wij))−(selection cost)(si)Y := Sum_{i}(max_{j}(s_{j})(w_{ij})) - (\text{selection cost})(s_i)Y:=Sumi​(maxj​(sj​)(wij​))−(selection cost)(si​).
  • N-gram Image-Specific Score (wikw_{ik}wik​): Рассчитывается как max(0,(Cik−1)

    Выводы

    1. Визуальный поиск — это текстовый поиск по сгенерированному описанию: Ключевой вывод патента заключается в том, что система не ранжирует результаты напрямую по визуальному сходству. Вместо этого она использует визуальное сходство для генерации наилучшего текстового описания (Derived Textual Query) и затем выполняет стандартный текстовый поиск.
    2. Контекст и поведение определяют семантику изображения: Патент четко показывает, что Google определяет значение изображения (его n-grams) на основе внешних данных: запросов, по которым на него кликают (query phrases, clicks), и текста на ссылающихся страницах (referrers, snippets, anchor text).
    3. Кластеризация для подтверждения описаний: Система не доверяет метаданным одного изображения. N-gram получает высокую оценку (Image-specific Score), только если он подтверждается другими визуально похожими изображениями (соседями в графе с высокой Image Affinity). Это механизм защиты от спама и неточных описаний.
    4. Популярность как фильтр качества: Только изображения, достигшие определенного порога кликов в поиске, рассматриваются для включения в основной индекс визуального поиска. Непопулярные изображения могут быть проигнорированы.
    5. Предпочтение длинным и точным фразам: При генерации текстового запроса система использует алгоритм, который отдает предпочтение более длинным n-grams (суперстрокам), если они имеют достаточно высокую оценку. Это значит, что система стремится найти наиболее специфичное описание (например, "Эйфелева башня ночью"), а не общее (например, "Башня").
    6. Наследование семантики через визуальное сходство: Изображение может быть ассоциировано с n-gram, даже если эта фраза отсутствует в его собственных метаданных, при условии, что визуально похожие изображения сильно связаны с этой фразой.

    Практика

    Best practices (это мы делаем)

    • Оптимизация контекста изображения на странице: Обеспечьте, чтобы текст, окружающий изображение (подписи, абзацы рядом, заголовки секций), был максимально релевантным и описательным. Этот текст (text snippets из referrers) является прямым источником n-grams для системы.
    • Создание визуально четких и уникальных изображений: Поскольку система полагается на Local Descriptors и Image Affinity, изображения должны быть высокого качества, а ключевые объекты на них — четко различимы. Это поможет системе правильно кластеризовать изображение с другими похожими объектами и ассоциировать его с правильными n-grams.
    • Оптимизация под целевые запросы для Image Search: Работайте над тем, чтобы ваши изображения ранжировались и получали клики по целевым текстовым запросам. Данные о query phrases и clicks напрямую используются для ассоциации n-grams и для прохождения порога популярности при индексации.
    • Использование описательного Alt-текста и имен файлов: Хотя патент явно не упоминает alt-текст, он упоминает text snippets и anchor text. Alt-текст функционирует аналогично, предоставляя системе кандидатов для n-grams.
    • Анализ визуальных конкурентов: Изучайте, какие изображения Google считает визуально похожими на ваши (например, через связанные изображения в Google Images/Lens). Понимание того, с какими n-grams ассоциируются эти изображения, поможет скорректировать вашу стратегию оптимизации контекста.

    Worst practices (это делать не надо)

    • Размещение изображений вне контекста: Публикация изображений на страницах, тематика которых не соответствует содержанию изображения. Это приводит к ассоциации с нерелевантными n-grams из referrers.
    • Массовое использование стоковых или шаблонных изображений: Если изображение визуально идентично тысячам других, система может отфильтровать дубликаты при оптимизации Yield. Кроме того, его текстовое описание будет определяться агрегированными данными от всех сайтов, что может не соответствовать вашему контексту.
    • Манипуляции с контекстом (Keyword Stuffing вокруг изображения): Переоптимизация окружающего текста может быть неэффективной, так как система использует механизм подтверждения n-grams через кластеры похожих изображений. Если другие похожие изображения не подтверждают спамные термины, эти n-grams получат низкий Image-specific Score.
    • Игнорирование Image Search трафика: Если изображения не получают кликов из поиска, они могут не попасть в индекс визуального поиска, так как не пройдут порог threshold number of clicks.

    Стратегическое значение

    Патент подтверждает, что для Google изображения являются не просто визуальными объектами, а семантическими единицами, которые можно преобразовать в текст. Стратегическое значение для SEO заключается в интеграции оптимизации изображений в общую контент-стратегию. Необходимо обеспечивать синергию между визуальным контентом и его текстовым контекстом, чтобы помочь Google сформировать правильные ассоциации (n-grams). Это особенно критично в E-commerce, где визуальный поиск напрямую ведет к конверсиям.

    Практические примеры

    Сценарий: Оптимизация карточки товара (Кроссовки) для визуального поиска

    1. Задача: Убедиться, что при визуальном поиске фотографии кроссовка Google генерирует точный Derived Textual Query, например, "Nike Air Max 270 Black White".
    2. Действия (Визуальные): Сделать качественные фотографии кроссовка с разных ракурсов, убедившись, что логотип и модель четко видны. Это улучшает расчет Local Descriptors и Image Affinity с другими фотографиями этой же модели.
    3. Действия (Контекстные): Разместить фотографию на странице товара. Убедиться, что название модели "Nike Air Max 270 Black White" находится рядом с изображением (в H1, в подписи или первом абзаце). Это увеличивает вероятность попадания этой фразы в text snippets.
    4. Действия (Поведенческие): Оптимизировать страницу и изображение (Alt, structured data), чтобы оно хорошо ранжировалось в Google Images по запросу "Nike Air Max 270 Black White" и получало клики. Это формирует связь query phrase и clicks с изображением.
    5. Ожидаемый результат: Когда Google индексирует изображение, он находит другие изображения этой модели (высокая Image Affinity). Он видит, что большинство этих изображений имеют n-gram "Nike Air Max 270 Black White" в метаданных. Система присваивает этой n-gram высокий Image-specific Score для вашего изображения. При визуальном поиске эта фраза будет выбрана как лучшее описание.

    Вопросы и ответы

    Как Google определяет, какой текст использовать для описания изображения, согласно этому патенту?

    Google не анализирует само изображение для генерации текста напрямую. Вместо этого он анализирует метаданные, связанные с этим изображением и визуально похожими на него изображениями. Основными источниками являются текстовые запросы (Query Phrases), по которым пользователи кликали на изображение в поиске, а также текст со ссылающихся страниц (рефереров). Эти текстовые данные (n-граммы) затем валидируются через визуальное сходство (Image Affinity).

    Является ли визуальный поиск (Query by Image) поиском похожих картинок?

    Не совсем. Поиск похожих картинок — это только первый шаг. Основная цель системы, описанной в патенте, — использовать эти похожие картинки для генерации текстового описания (Derived Textual Query) входного изображения. Финальные результаты поиска — это результаты, релевантные этому сгенерированному тексту, а не обязательно визуально похожие на оригинал.

    Насколько важна популярность (клики) изображения для его участия в визуальном поиске?

    Она очень важна на этапе индексации. Патент описывает, что система фильтрует изображения и включает в индекс только те, которые преодолели определенный порог кликов (threshold number of clicks) в результатах стандартного поиска изображений. Если изображение непопулярно и не получает кликов, оно может быть исключено из индекса визуального поиска.

    Что такое Image Affinity и как она влияет на SEO?

    Image Affinity — это мера визуального сходства между двумя изображениями, рассчитанная на основе графа связей. Для SEO это важно, потому что система использует Image Affinity для кластеризации изображений. Если ваше изображение имеет высокую аффинность с изображениями, которые уже имеют сильные текстовые ассоциации (n-grams), ваше изображение унаследует эти ассоциации.

    Может ли мое изображение ранжироваться по запросу, которого нет на странице?

    Да. Если ваше изображение визуально очень похоже на кластер других изображений, которые сильно ассоциированы с определенной n-gram (например, названием бренда или модели), ваше изображение может унаследовать эту ассоциацию и получить соответствующий Image-specific Score, даже если текст отсутствует в ваших собственных метаданных.

    Как система выбирает между коротким и длинным описанием изображения?

    Система использует итеративный алгоритм выбора лучшей n-gram. Она начинает с коротких фраз и переходит к более длинным. Предпочтение отдается более длинной фразе, если ее общая оценка выше, ИЛИ если она является суперстрокой (включает в себя) текущего лучшего описания и ее оценка превышает порог принятия. Это означает стремление к максимальной специфичности.

    Влияет ли качество и разрешение изображения на этот процесс?

    Патент не указывает это напрямую, но для точного вычисления Local Descriptors и надежного определения Image Affinity требуется достаточное качество изображения. Размытые, слишком маленькие или нечеткие изображения могут быть неправильно обработаны, что приведет к неверной кластеризации и ассоциации с неправильными n-grams.

    Что такое максимизация Yield при индексации и как это влияет на мои изображения?

    Максимизация Yield — это процесс оптимизации индекса для удаления избыточности. Если у вас есть 10 почти идентичных фотографий одного и того же объекта, система, скорее всего, выберет только одну или две наиболее репрезентативные для включения в финальный индекс, чтобы сэкономить ресурсы. SEO-специалистам следует фокусироваться на качестве и разнообразии ракурсов, а не на количестве одинаковых изображений.

    Использует ли система машинное обучение для распознавания объектов на изображении?

    Этот конкретный патент (подан в 2010 году) не фокусируется на глубоком обучении или нейронных сетях для распознавания объектов. Он полагается на традиционные методы компьютерного зрения (Local Descriptors, например, вейвлеты) для нахождения визуального сходства и статистический анализ метаданных (n-grams) для определения семантики. Современные системы (например, Google Lens) комбинируют эти подходы с глубоким обучением.

    Как оптимизировать изображения для этого алгоритма в E-commerce?

    Ключевым является обеспечение сильной связи между изображением товара и его точным названием/моделью. Размещайте название модели близко к изображению. Делайте четкие фотографии, чтобы система могла легко сопоставить ваш товар с другими аналогичными товарами в интернете. Обеспечьте получение кликов на изображение в поиске по названию модели, так как это напрямую связывает query phrase с изображением.

    Похожие патенты

    Как Google комбинирует визуальное сходство и семантические метки для улучшения поиска по картинке (Visual Search)
    Google использует систему поиска по изображению, которая сочетает анализ визуальных характеристик и семантических меток. Система генерирует высокоточные метки (High Confidence Labels) для изображения, анализируя текст, связанный с визуально похожими картинками в интернете. Затем она ранжирует кандидатов, используя модель визуального сходства, обученную на основе человеческих оценок, и применяет правила фильтрации для обеспечения однородности результатов.
    • US8429173B1
    • 2013-04-23
    • Семантика и интент

    • Мультимедиа

    • SERP

    Как Google кластеризует результаты поиска по картинкам и выбирает репрезентативное (каноническое) изображение для показа
    Google организует результаты поиска изображений в иерархические кластеры на основе визуального сходства. Для каждого кластера выбирается «каноническое изображение» — часто это изображение с самым высоким исходным рейтингом или наиболее визуально авторитетное (с использованием метрик типа VisualRank). Эта структура определяет, как изображения группируются и какое изображение получает максимальную видимость в интерфейсе Google Images.
    • US8352465B1
    • 2013-01-08
    • Мультимедиа

    • SERP

    Как Google выбирает главное изображение для новостных статей и кластеров в Google News и Top Stories
    Google использует многофакторную систему для выбора наилучшего изображения, представляющего новостную статью или кластер. Система фильтрует неподходящие изображения (рекламу, логотипы), анализирует контекст (подписи, Alt-текст, расположение рядом с заголовком) и оценивает технические параметры (размер, формат), чтобы выбрать изображение для показа в результатах поиска новостей.
    • US8775436B1
    • 2014-07-08
    • Мультимедиа

    • Семантика и интент

    • SERP

    Как Google использует визуальное сходство для определения и уточнения ключевых слов изображений (VisualRank)
    Google анализирует визуальные характеристики изображений и строит граф сходства. Релевантные ключевые слова распространяются от размеченных изображений к похожим, но неразмеченным или плохо размеченным изображениям. Это позволяет поисковой системе понять реальное содержание картинки, основываясь на визуальных данных, и отфильтровать шум в метаданных или окружающем тексте.
    • US8356035B1
    • 2013-01-15
    • Индексация

    • Мультимедиа

    • Семантика и интент

    Как Google использует визуальное сходство для связывания изображений и видео, кластеризации выдачи и обогащения метаданных
    Google анализирует визуальное содержимое изображений и ключевых кадров видео для выявления сходств. Это позволяет связывать разнотипный контент, даже если у него мало текстовых данных. Система использует эти связи для переноса метаданных (например, ключевых слов или геопозиции) от одного ресурса к другому, а также для кластеризации и смешивания изображений и видео в результатах поиска.
    • US9652462B2
    • 2017-05-16
    • Мультимедиа

    • SERP

    • Семантика и интент

    Популярные патенты

    Как Google использует социальные связи для выявления предвзятых ссылок и борьбы со ссылочными схемами и кликфродом
    Google анализирует взаимоотношения между администраторами веб-сайтов (используя данные социальных сетей), чтобы определить независимость ссылок или кликов по рекламе. Если обнаружена тесная связь, это интерпретируется как предвзятость (Bias). В результате вес ссылки для ранжирования может быть снижен (борьба с Search Spamming), или клик по рекламе может быть дисконтирован (борьба с Ad Spamming).
    • US10402457B1
    • 2019-09-03
    • Ссылки

    • Антиспам

    • Краулинг

    Как Google использует поведение пользователей в веб-поиске для динамической категоризации локальных бизнесов
    Google динамически формирует категории для бизнесов, основываясь на том, как пользователи ищут их (используемые ключевые слова и клики) в веб-поиске и голосовом поиске. Эти данные формируют иерархическое понимание типов бизнеса. Эта структура затем используется для повышения точности распознавания названий компаний в голосовых запросах.
    • US8041568B2
    • 2011-10-18
    • Local SEO

    • Поведенческие сигналы

    • Семантика и интент

    Как Google использует персональное дерево интересов пользователя для определения важности слов в запросе и его переписывания
    Google использует иерархический профиль интересов пользователя (Profile Tree), построенный на основе истории поиска и поведения, чтобы определить, какие слова в запросе наиболее важны для конкретного человека. Специфичные интересы (глубокие узлы в дереве) получают больший вес. Это позволяет системе отфильтровать шум в длинных запросах и сгенерировать более точный альтернативный запрос.
    • US8326861B1
    • 2012-12-04
    • Персонализация

    • Семантика и интент

    • Поведенческие сигналы

    Как Google использует историю поиска и браузинга пользователя для персонализации и изменения результатов выдачи
    Google записывает историю поиска и просмотров пользователя для последующей персонализации выдачи. Система может повышать в ранжировании ранее посещенные сайты, добавлять в текущую выдачу релевантные результаты из прошлых похожих запросов, а также понижать сайты, которые пользователь ранее видел, но проигнорировал. Патент также описывает создание "предпочитаемых локаций" на основе частоты посещений и времени пребывания на сайте.
    • US9256685B2
    • 2016-02-09
    • Персонализация

    • Поведенческие сигналы

    • SERP

    Как Google определяет, действительно ли новость посвящена сущности, и строит хронологию событий
    Google использует систему для определения релевантности новостей конкретным объектам (сущностям, событиям, темам). Система анализирует кластеры новостных статей (коллекции), оценивая общий интерес к объекту (поисковые запросы, социальные сети) и значимость объекта внутри коллекции (упоминания в заголовках, центральность в тексте). Ключевой механизм — оценка уместности событий: система проверяет, соответствует ли событие типу объекта (например, «новый метод лечения» для болезни), чтобы отфильтровать мимолетные упоминания и создать точную хронологию новостей.
    • US9881077B1
    • 2018-01-30
    • Семантика и интент

    • Поведенческие сигналы

    Как Google использует данные сессий и разнообразие результатов для генерации блока "Связанные запросы"
    Google анализирует поисковые сессии пользователей, чтобы найти запросы, которые часто следуют за одним и тем же предшествующим запросом (родственные запросы). Затем система фильтрует эти потенциальные "Связанные запросы", чтобы убедиться, что они предлагают разнообразные результаты по сравнению с исходным запросом и другими предложениями, помогая пользователям исследовать смежные, но отличные темы.
    • US8244749B1
    • 2012-08-14
    • Семантика и интент

    • Персонализация

    • Поведенческие сигналы

    Как Google использует клики пользователей в поиске по картинкам для понимания содержания изображений и улучшения таргетинга
    Google анализирует поведение пользователей в поиске по картинкам для идентификации содержания изображений. Если пользователи ищут определенный запрос (идею) и массово кликают на конкретное изображение в результатах, система связывает это изображение с данным запросом (концепцией). Эти данные используются для улучшения ранжирования в поиске картинок и для предложения релевантных ключевых слов рекламодателям, загружающим схожие изображения.
    • US11409812B1
    • 2022-08-09
    • Поведенческие сигналы

    • Семантика и интент

    • SERP

    Как Google использует историю поиска и ссылки с предпочитаемых пользователем сайтов для персонализации выдачи
    Google может персонализировать результаты поиска, используя историю запросов или просмотров пользователя для создания набора предпочтений (Document Bias Set). Если документы из этого набора, особенно те, которые также признаны глобально качественными, ссылаются на результаты поиска, эти результаты переранжируются (повышаются или понижаются) в соответствии с весами предпочтений пользователя.
    • US8538970B1
    • 2013-09-17
    • Персонализация

    • Поведенческие сигналы

    • SERP

    Как Google автоматически генерирует блоки "Связанные ссылки" и "Похожие запросы", анализируя контент страницы при загрузке
    Патент описывает систему для динамической генерации виджетов связанных ссылок. При загрузке страницы система извлекает текст (заголовок, контент, запрос из реферера), определяет наиболее важные ключевые слова с помощью глобального репозитория (Keyword Repository), выполняет поиск по этим словам (часто в пределах того же домена) и отображает топовые результаты для улучшения навигации.
    • US9129009B2
    • 2015-09-08
    • Ссылки

    • Семантика и интент

    • Техническое SEO

    Как Google комбинирует поведенческие сигналы из разных поисковых систем для улучшения ранжирования
    Google использует механизм для улучшения ранжирования путем объединения данных о поведении пользователей (клики и время взаимодействия) из разных поисковых систем (например, Веб-поиск и Поиск по Видео). Если в основной системе данных недостаточно, система заимствует данные из другой, применяя весовой коэффициент и фактор сглаживания для контроля смещения и обеспечения релевантности.
    • US8832083B1
    • 2014-09-09
    • Поведенческие сигналы

    • SERP

    seohardcore