SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google использует "визуальные слова" и геометрические данные для эффективного поиска похожих изображений

SIMILAR IMAGE RETRIEVAL (Поиск похожих изображений)
  • US20150169740A1
  • Google LLC
  • 2012-08-23
  • 2015-06-18
  • Индексация
  • Мультимедиа
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Патент Google, описывающий инфраструктуру поиска по изображениям. Система разбивает изображения на "визуальные слова" (признаки) и использует инвертированный индекс (posting lists) для быстрого поиска совпадений. Ключевая особенность — хранение геометрических данных (положение признаков) прямо в индексе, что позволяет быстро рассчитывать визуальное сходство и проверять пространственное расположение элементов на лету.

Описание

Какую проблему решает

Патент решает проблему эффективности и скорости поиска визуально похожих изображений (Content-Based Image Retrieval) в очень больших коллекциях данных. Он направлен на ускорение процесса сопоставления (matching) и оценки сходства (scoring). Основная задача — интегрировать дорогостоящую геометрическую верификацию (проверку пространственного соответствия признаков) непосредственно в этап первичного поиска, избегая задержек и многократного доступа к данным.

Что запатентовано

Запатентована система и метод для быстрого поиска похожих изображений на основе модели "мешка визуальных слов" (Bag-of-Visual-Words). Суть изобретения заключается в методе параллельного обхода нескольких списков соответствия (posting lists) и вычисления оценки сходства на лету (on-the-fly), до того как обход будет завершен. Это достигается за счет хранения геометрических данных (geometry data) признаков непосредственно в posting lists и использования оптимизированной древовидной структуры для управления обходом.

Как это работает

Система работает в несколько этапов:

  • Индексация: Изображения анализируются, из них извлекаются векторы признаков (feature vectors), которые квантуются в visual words. В индекс (posting lists) сохраняются идентификаторы изображений вместе с geometry data (положение, масштаб) для каждого визуального слова.
  • Запрос: Изображение-запрос также конвертируется в набор visual words.
  • Параллельный обход: Система одновременно (параллельно) обходит posting lists, соответствующие визуальным словам запроса. Для оптимизации того, какой список продвигать следующим, используется специальная древовидная структура (Tree Structure).
  • Оценка на лету: Когда одно и то же изображение встречается в пороговом количестве списков, оно немедленно оценивается. Система использует geometry data, извлеченные прямо из индекса, для выполнения геометрической верификации (проверяя пространственное соответствие признаков).
  • Взвешивание: При оценке система учитывает уникальность признаков (Feature Space Density), придавая больший вес редким словам.

Актуальность для SEO

Высокая (для инфраструктуры Image Search / Visual Search). Хотя современные методы поиска изображений все чаще полагаются на нейросетевые эмбеддинги, модель Bag-of-Visual-Words с геометрической верификацией остается фундаментальной технологией, особенно для поиска точных совпадений. Описанные методы оптимизации обхода индекса и интеграции оценки критически важны для систем, работающих в реальном времени с большими объемами данных (например, Google Lens).

Важность для SEO

Патент имеет преимущественно инфраструктурное значение (4/10) и описывает внутренние механизмы движка поиска изображений (Image Search Engine). Он не дает прямых рекомендаций для SEO-специалистов по оптимизации веб-страниц или текстового контента. Однако он критически важен для глубокого понимания того, как Google анализирует визуальное содержание, определяет сходство и идентифицирует объекты на изображениях. Эти знания необходимы для разработки стратегий в области Image SEO и Visual Search.

Детальный разбор

Термины и определения

Visual Word (Визуальное слово)
Квантованное представление вектора признаков. Результат разделения пространства признаков на конечное число ячеек (Feature Cells). Каждая ячейка соответствует одному визуальному слову. Аналог слова в текстовом поиске.
Feature Vector (Вектор признаков)
Числовое представление локальной области изображения (feature region), описывающее ее характеристики (например, текстуру, градиенты).
Posting List (Список соответствия / Постинг-лист)
Структура данных инвертированного индекса. Для каждого Visual Word существует свой Posting List, содержащий список идентификаторов изображений (document identifiers), в которых это слово встречается. В данном патенте списки также содержат Geometry data.
Geometry Data (Геометрические данные)
Информация о пространственном расположении области признака, соответствующей Visual Word. Включает координаты (position) и масштаб (scale/size) области на изображении.
Feature Space Density (Плотность пространства признаков)
Метрика, показывающая, насколько часто встречается данный Visual Word. Рассчитывается на основе количества векторов признаков, попавших в ячейку, и размера этой ячейки. Высокая плотность означает общий, недискриминативный признак (аналог IDF).
Feature Cell (Ячейка признаков)
Область в пространстве признаков, определяющая Visual Word. Формируется в процессе кластеризации.
Tree Structure (Древовидная структура)
Структура данных, используемая для эффективного управления параллельным обходом Posting Lists. Позволяет быстро определить, какой список нужно продвинуть следующим, и идентифицировать совпадения.
Conditional Move Instruction (Инструкция условного перемещения)
Инструкция процессора, позволяющая перемещать данные в зависимости от условия без использования инструкций ветвления (branching). Используется для оптимизации обновления Tree Structure.
RANSAC (Random Sample Consensus)
Алгоритм, упомянутый в патенте как возможный метод для определения параметров геометрического отображения (geometric mapping) между двумя наборами точек (визуальными словами двух изображений).

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает основной метод вычисления оценки сходства изображения путем параллельного обхода нескольких posting lists.

  1. Система получает изображение-запрос и определяет его visual words.
  2. Идентифицируются соответствующие posting lists. Каждый элемент списка содержит идентификатор изображения и связанные с ним geometry data. Для каждого списка поддерживается курсор (item cursor).
  3. Система продвигает один из курсоров к следующему элементу.
  4. Определяется количество курсоров, указывающих на одно и то же изображение (т.е. количество совпавших визуальных слов).
  5. Если это количество достигает порога (threshold), система идентифицирует geometry data для совпавших слов.
  6. Вычисляется оценка сходства (score) для этого изображения до достижения конца posting list (before advancing to an end of the particular posting list). Оценка основана на сравнении визуальных слов запроса и кандидата с использованием их geometry data.
  7. Изображение ранжируется на основе этой оценки.

Ядро изобретения — выполнение сложной оценки (с геометрической верификацией) непосредственно во время первичного обхода индекса, благодаря хранению необходимых данных (геометрии) в самом индексе.

Claim 4 (Зависимый): Детализирует механизм обхода с использованием Tree Structure.

Обход осуществляется путем продвижения курсора того списка, который идентифицирован в корневом узле (root node) древовидной структуры. Листовые узлы соответствуют posting lists.

Claim 6 (Зависимый): Указывает на модификацию оценки сходства.

Вычисленная оценка взвешивается на основе рассчитанной Feature Space Density для соответствующего визуального слова.

Claim 7 (Зависимый): Описывает оптимизацию обновления Tree Structure.

Обновление родительских узлов выполняется с использованием инструкций Conditional Move для повышения производительности процессора.

Claim 10 (Зависимый): Определяет метод расчета Feature Space Density.

Плотность рассчитывается на основе деления количества векторов признаков в ячейке (Feature Cell) на вычисленный размер этой ячейки.

Где и как применяется

Изобретение применяется исключительно в инфраструктуре поиска изображений (Image Search System), например, в Google Images (поиск по картинке) и Google Lens.

INDEXING – Индексирование и извлечение признаков
На этом этапе происходят ключевые предварительные вычисления:

  1. Извлечение Feature Vectors из изображений.
  2. Квантование пространства признаков (офлайн): кластеризация векторов для определения Visual Words.
  3. Расчет Feature Space Density для каждого визуального слова.
  4. Построение Index Database: создание Posting Lists, включающих идентификаторы изображений и соответствующие Geometry data.

RANKING – Ранжирование (Этап L1 Retrieval / Отбор Кандидатов)
Это основная область применения патента в режиме реального времени.

  1. Получение Visual Words из изображения-запроса.
  2. Эффективный параллельный обход Posting Lists с использованием Tree Structure.
  3. Идентификация изображений-кандидатов (matching images), удовлетворяющих порогу совпадений.
  4. Вычисление первичной оценки сходства (similarity score) на лету с использованием геометрической верификации и взвешивания по плотности.

Входные данные:

  • Изображение-запрос (или его набор Visual Words).
  • Index Database (Posting Lists с Geometry data).
  • Данные о Feature Space Density.

Выходные данные:

  • Список похожих изображений, ранжированных по вычисленной оценке сходства.

На что влияет

  • Конкретные типы контента: Влияет исключительно на поиск и ранжирование изображений в системах, использующих изображение в качестве запроса (Query by Image, Visual Search).
  • Специфические запросы: Не влияет на ранжирование веб-страниц или изображений по текстовым запросам.

Когда применяется

  • Условия применения: Алгоритм применяется при получении поискового запроса, содержащего изображение (Image Query).
  • Триггеры активации: Механизм оценки сходства на лету активируется, когда система идентифицирует изображение-кандидат, имеющее пороговое количество общих Visual Words с запросом.

Пошаговый алгоритм

Процесс А: Офлайн-индексация и обучение

  1. Сбор данных и Квантование: Сбор обучающих векторов признаков и их кластеризация для определения Feature Cells (Visual Words).
  2. Расчет плотности: Вычисление размера каждой ячейки. Расчет Feature Space Density (количество точек / размер).
  3. Расчет весов: Определение веса (W) для каждого Visual Word на основе плотности. Высокоплотные слова могут быть исключены из индекса.
  4. Построение индекса: Создание Posting Lists. Заполнение списков идентификаторами изображений и их Geometry data (координаты, масштаб). Списки сортируются по идентификаторам.

Процесс Б: Обработка запроса в реальном времени

  1. Получение запроса и Извлечение признаков: Система получает изображение-запрос, извлекает Feature Vectors и квантует их в Visual Words. (Система может выбрать подмножество слов с наименьшей плотностью).
  2. Инициализация обхода: Идентифицируются соответствующие Posting Lists. Инициализируется Tree Structure, листовые узлы заполняются первыми элементами списков.
  3. Параллельный обход (Цикл):
    1. Проверка совпадения: Анализируется корневой узел (Root Node) древовидной структуры. Если счетчик совпадений в корневом узле достигает порога, идентификатор документа признается совпадением (Matching Image).
    2. Оценка сходства (если совпадение): Немедленно вычисляется Similarity Score. Это включает:
      • Извлечение Geometry data из индекса.
      • Выполнение геометрической верификации (например, RANSAC) для поиска оптимального отображения (geometric mapping). Патент приводит пример f(x,y)=[ax+b,cy+d]f(x,y)=[ax+b, cy+d]f(x,y)=[ax+b,cy+d].
      • Подсчет количества выровненных (aligned) визуальных слов.
      • Взвешивание результата с учетом Feature Space Density.
    3. Продвижение курсора: Продвигается курсор того Posting List, который указан в корневом узле (наименее продвинутый список).
    4. Обновление структуры: Tree Structure обновляется снизу вверх для отражения нового состояния курсоров. Этот шаг оптимизирован с помощью Conditional Move Instructions.
  4. Завершение и Ранжирование: Цикл повторяется до завершения обхода списков. Найденные изображения сортируются по вычисленным оценкам сходства.

Какие данные и как использует

Данные на входе

Патент фокусируется на визуальных и структурных данных внутри изображения.

  • Мультимедиа факторы: Пиксельные данные изображений (как индексируемых, так и запроса) являются основой для извлечения Feature Vectors.
  • Структурные факторы (внутри изображения): Критически важными являются Geometry data — пространственные характеристики областей признаков. Они включают:
    • Координаты (Position): Положение центра области на изображении (x, y).
    • Масштаб (Scale): Размер области признака.

Какие метрики используются и как они считаются

  • Feature Space Density (d): Метрика частотности/уникальности визуального слова. Рассчитывается офлайн как количество обучающих векторов в ячейке, деленное на размер ячейки.
  • Порог совпадений (Threshold): Минимальное количество общих Visual Words, необходимое для активации оценки сходства.
  • Geometric Mapping (Геометрическое отображение): Математическая трансформация координат. Система ищет оптимальное преобразование (например, используя RANSAC), которое наилучшим образом совмещает координаты признаков запроса с координатами признаков найденного изображения.
  • Вес визуального слова (W): Множитель для оценки сходства, основанный на плотности. Патент предлагает формулу: W=e0.5∗(1−2di

    Выводы

    1. Инфраструктурный фокус: Патент описывает внутреннюю архитектуру и оптимизацию производительности системы поиска по изображениям (CBIR). Он не имеет отношения к ранжированию веб-страниц в основном поиске.
    2. Модель "Bag-of-Visual-Words": Подтверждается использование модели BoVW, рассматривающей изображения как наборы локальных визуальных признаков (Visual Words).
    3. Критичность геометрической верификации: Визуальное сходство определяется не просто наличием одинаковых признаков, но и их пространственным соответствием. Система проверяет, можно ли совместить признаки одного изображения с признаками другого через геометрические трансформации (Geometric Mapping).
    4. Оптимизация скорости за счет хранения данных в индексе: Ключевое нововведение — хранение Geometry data непосредственно в Posting Lists. Это позволяет выполнять сложную геометрическую верификацию на лету во время первичного обхода индекса, что радикально ускоряет поиск.
    5. Важность уникальности признаков (Feature Space Density): Система использует механизм, аналогичный IDF. Общие, часто встречающиеся визуальные признаки (высокая плотность) имеют меньший вес или игнорируются, в то время как уникальные, редкие признаки (низкая плотность) считаются более важными для определения сходства.
    6. Низкоуровневые оптимизации: Google применяет оптимизации на уровне процессора (Conditional Move Instructions) и структур данных (Tree Structure) для достижения максимальной скорости обхода индекса.

    Практика

    Best practices (это мы делаем)

    Практическое применение ограничено областью Image SEO и оптимизацией под визуальный поиск (Visual Search/Google Lens).

    • Использование высококачественных и четких изображений: Четкость и хорошее освещение позволяют системе надежно и стабильно извлекать Feature Vectors и определять Visual Words. Это повышает вероятность того, что изображение будет корректно проиндексировано и найдено в визуальном поиске.
    • Фокус на визуальной уникальности контента: Создавайте собственные изображения с уникальными объектами или композициями. Изображения, содержащие редкие визуальные признаки (низкая Feature Space Density), будут иметь больший вес при определении сходства и релевантности в визуальном поиске.
    • Обеспечение визуальной консистентности (для E-commerce): При публикации нескольких изображений одного товара с разных ракурсов важно сохранять условия съемки. Система способна установить связь между такими изображениями через Geometric Mapping, определив, что это один и тот же объект, несмотря на разную перспективу.

    Worst practices (это делать не надо)

    • Использование изображений низкого качества: Зашумленные, размытые или сильно сжатые изображения затрудняют извлечение стабильных признаков, что может привести к ошибкам индексации и снижению видимости в поиске по картинкам.
    • Злоупотребление шаблонными стоковыми изображениями: Использование исключительно популярных стоковых фото, состоящих из общих визуальных элементов (высокая Feature Space Density), снижает дискриминационную способность изображения. Система может придавать меньший вес таким изображениям при визуальном сопоставлении.
    • Искусственные манипуляции с геометрией: Сильное искажение пропорций или добавление графических элементов, нарушающих естественную структуру сцены, может помешать процессу геометрической верификации (например, RANSAC) и снизить оценку сходства при поиске по образцу.

    Стратегическое значение

    Патент подчеркивает, что для Google Image Search и Visual Search ключевыми факторами являются качество исходных данных (четкость изображения) и уникальность визуальной информации. Для E-commerce и контентных проектов стратегически важно инвестировать в создание собственного, качественного визуального контента. Понимание механизма BoVW и геометрической верификации помогает понять, как работают такие продукты, как Google Lens, и почему они могут находить товары или объекты по пользовательским фотографиям.

    Практические примеры

    Сценарий: Поиск товара в E-commerce по фотографии пользователя (Visual Search)

    1. Действие пользователя: Пользователь фотографирует кроссовок (Изображение-запрос) и загружает его в Google Lens.
    2. Обработка запроса: Google извлекает Visual Words из фото (например, логотип, текстура материала, форма подошвы) и их координаты (Geometry Data).
    3. Поиск в индексе: Система быстро сканирует Posting Lists в поиске изображений с похожим набором Visual Words.
    4. Идентификация кандидата: Система находит студийное фото этого же кроссовка на сайте интернет-магазина. У этого фото много общих Visual Words с запросом.
    5. Геометрическая верификация (на лету): Несмотря на разные ракурсы, система использует RANSAC и Geometry data (извлеченные прямо из индекса), чтобы проверить, можно ли совместить признаки. Она определяет, что пространственное расположение логотипа относительно подошвы соответствует геометрической трансформации.
    6. Взвешивание: Система придает больший вес уникальным элементам дизайна кроссовка (низкая Feature Space Density) и меньший вес общей форме.
    7. Результат: Система определяет высокое визуальное сходство и показывает пользователю ссылку на страницу товара.

    Вопросы и ответы

    Влияет ли этот патент на ранжирование моего сайта в основном веб-поиске Google?

    Нет, этот патент описывает исключительно инфраструктуру и алгоритмы системы поиска похожих изображений (Image Search Engine). Он не затрагивает факторы ранжирования веб-страниц по текстовым запросам. Его влияние ограничено поиском по картинкам (когда пользователь загружает изображение) и визуальным поиском (например, Google Lens).

    Что такое "визуальное слово" (Visual Word) простыми словами?

    Это небольшой фрагмент или локальный паттерн на изображении, который система распознает как отдельный признак (например, угол объекта, специфическая текстура, часть логотипа). Изображение рассматривается как "мешок" таких визуальных слов. Это позволяет сравнивать изображения, находя общие признаки, аналогично тому, как текстовый поиск ищет общие слова в документах.

    Что такое "геометрическая верификация" и зачем она нужна?

    Это проверка пространственного расположения признаков. Недостаточно, чтобы два изображения имели одинаковые визуальные слова; важно, чтобы эти слова располагались относительно друг друга схожим образом. Например, если на двух фото есть глаза, нос и рот, геометрическая верификация проверит, формируют ли они лицо с правильными пропорциями. Это отсеивает ложные совпадения.

    Почему Google игнорирует некоторые визуальные признаки согласно патенту?

    Система использует метрику Feature Space Density (плотность пространства признаков). Если какой-то признак встречается очень часто (например, голубое небо, простая линия), он имеет высокую плотность и низкую дискриминационную способность — он не помогает отличить одно изображение от другого. Такие признаки получают низкий вес или игнорируются, чтобы сфокусироваться на уникальных элементах.

    Как этот патент связан с Google Lens?

    Описанный механизм является фундаментальной технологией для продуктов типа Google Lens. Когда вы используете Lens для поиска объекта или товара по фотографии, система применяет эти алгоритмы для быстрого сканирования миллиардов изображений в индексе, поиска совпадающих визуальных слов и проверки геометрического соответствия, чтобы найти релевантные результаты.

    Что важнее для этого алгоритма: четкость изображения или его содержание?

    Важны оба аспекта. Четкость и высокое качество необходимы для того, чтобы система могла надежно извлечь визуальные признаки (Feature Vectors). Уникальное содержание гарантирует, что извлеченные признаки будут иметь низкую Feature Space Density, что повышает их значимость при оценке сходства.

    Поможет ли оптимизация Alt-текста или заголовков для этого алгоритма?

    Нет. Алгоритм, описанный в этом патенте, работает исключительно с визуальными данными (пикселями) изображения. Он не анализирует связанный текст, метаданные, Alt-атрибуты или окружающий контент на странице. Эти факторы используются другими алгоритмами ранжирования в Google Images, но не в этом конкретном механизме поиска визуальных совпадений.

    Как система обрабатывает изображения одного и того же объекта, снятого под разными углами?

    Система справляется с этим благодаря процессу геометрического отображения (Geometric Mapping), часто используя алгоритм RANSAC. Она пытается найти математическую трансформацию (включая изменение перспективы, масштаба, поворот), которая наилучшим образом совместит визуальные слова одного изображения с визуальными словами другого. Если соответствие найдено, изображения признаются похожими.

    Что такое Posting List в контексте поиска изображений?

    Это инвертированный индекс, адаптированный для визуальных данных. Вместо того чтобы связывать текстовое слово со списком документов, он связывает Visual Word (визуальный признак) со списком всех изображений в базе данных, где этот признак встречается. В данном патенте эти списки также хранят геометрические данные признаков.

    Насколько актуален подход Bag-of-Visual-Words (BoVW) с развитием нейросетей?

    Подход BoVW остается актуальным, но он все чаще дополняется или заменяется методами на основе глубокого обучения (Deep Learning), такими как глобальные эмбеддинги изображений. BoVW очень эффективен для поиска точных совпадений и идентификации конкретных объектов, в то время как эмбеддинги лучше справляются с определением семантического и тематического сходства.

    Похожие патенты

    Как Google объединяет дубликаты изображений в кластеры и индексирует их как единое целое для улучшения визуального поиска
    Google оптимизирует визуальный поиск, группируя почти идентичные изображения (измененный размер, обрезка) в единый кластер. Система индексирует не отдельные картинки, а совокупность всех визуальных признаков ("визуальных слов") из всех вариантов в кластере. Это повышает эффективность индекса и гарантирует согласованность результатов при поиске по изображению.
    • US8923626B1
    • 2014-12-30
    • Индексация

    • Мультимедиа

    Как Google комбинирует визуальное сходство и семантические метки для улучшения поиска по картинке (Visual Search)
    Google использует систему поиска по изображению, которая сочетает анализ визуальных характеристик и семантических меток. Система генерирует высокоточные метки (High Confidence Labels) для изображения, анализируя текст, связанный с визуально похожими картинками в интернете. Затем она ранжирует кандидатов, используя модель визуального сходства, обученную на основе человеческих оценок, и применяет правила фильтрации для обеспечения однородности результатов.
    • US8429173B1
    • 2013-04-23
    • Семантика и интент

    • Мультимедиа

    • SERP

    Как Google использует визуальное сходство для определения и уточнения ключевых слов изображений (VisualRank)
    Google анализирует визуальные характеристики изображений и строит граф сходства. Релевантные ключевые слова распространяются от размеченных изображений к похожим, но неразмеченным или плохо размеченным изображениям. Это позволяет поисковой системе понять реальное содержание картинки, основываясь на визуальных данных, и отфильтровать шум в метаданных или окружающем тексте.
    • US8356035B1
    • 2013-01-15
    • Индексация

    • Мультимедиа

    • Семантика и интент

    Как Google использует единый Image Embedding для параллельного поиска по разным вертикалям (Web, Shopping, Local) при визуальном запросе
    Google патентует механизм для улучшения визуального поиска (например, Google Lens). Система генерирует единое векторное представление (Image Embedding) для изображения-запроса и использует его для одновременного поиска визуально похожих результатов в нескольких разных базах данных (например, в общем веб-индексе и специализированном индексе товаров или локаций). Контекст пользователя (местоположение, история) помогает системе выбрать, какие специализированные базы активировать для поиска.
    • US20240311421A1
    • 2024-09-19
    • Мультимедиа

    • Индексация

    • Семантика и интент

    Как Google агрегирует и ранжирует пользовательские метки для идентификации объектов в Визуальном поиске (Google Lens)
    Google использует этот механизм для повышения точности идентификации объектов при поиске по изображению. Система находит множество визуально похожих изображений, загруженных пользователями (UGC), и анализирует их текстовые метки. Метки группируются по смыслу, а затем эти группы ранжируются на основе совокупной визуальной релевантности. Это позволяет определить наиболее вероятное название объекта, опираясь на коллективное мнение.
    • US9424279B2
    • 2016-08-23
    • Мультимедиа

    • Семантика и интент

    • SERP

    Популярные патенты

    Как Google рассчитывает «сигнал конкурентоспособности» (Competition Signal) страниц на основе анализа кликов, показов и времени взаимодействия
    Google оценивает качество страниц, анализируя их «победы» и «поражения» в поисковой выдаче. Система сравнивает, как часто пользователи выбирают данный URL вместо других и как долго они взаимодействуют с контентом по сравнению с конкурентами (Dwell Time). На основе этих данных рассчитывается корректирующий фактор, который повышает или понижает позиции страницы, отражая её относительную конкурентоспособность и удовлетворенность пользователей.
    • US9020927B1
    • 2015-04-28
    • Поведенческие сигналы

    • SERP

    • EEAT и качество

    Как Google определяет язык и языковую релевантность страницы, анализируя контекст входящих и исходящих ссылок
    Google использует контекст входящих и исходящих ссылок для определения языковой релевантности ресурса. Система анализирует язык анкоров, URL, контент ссылающихся и целевых страниц, а также качество ссылок и тип страницы (например, «языковой шлюз»). Это позволяет точно идентифицировать релевантные языки, даже если на самой странице мало текста.
    • US9098582B1
    • 2015-08-04
    • Ссылки

    • Мультиязычность

    • Семантика и интент

    Как Google использует структурированные данные для отображения прямых ссылок на песни в результатах поиска (Rich Snippets)
    Google улучшает результаты поиска музыки, извлекая детали песен (названия, альбомы, продолжительность) из структурированной разметки (например, HTML5 microdata) на веб-страницах. Это позволяет Google отображать прямые ссылки на конкретные песни (вторичные ссылки) внутри основного блока результатов поиска, при условии соблюдения определенных порогов качества и популярности.
    • US9128993B2
    • 2015-09-08
    • Ссылки

    • SERP

    • Индексация

    Как Google использует интерактивные визуальные цитаты для генерации и уточнения ответов в мультимодальном поиске (SGE/Lens)
    Google использует механизм для улучшения точности ответов, генерируемых LLM в ответ на мультимодальные запросы (изображение + текст). Система находит визуально похожие изображения, извлекает текст из их источников и генерирует ответ. Этот ответ сопровождается «визуальными цитатами» (исходными изображениями). Если пользователь видит, что цитата визуально не соответствует запросу, он может её отклонить. Система удалит текст этого источника и перегенерирует ответ, повышая его точность.
    • US20240378237A1
    • 2024-11-14
    • Мультимедиа

    • EEAT и качество

    • Семантика и интент

    Как Google игнорирует часто меняющийся контент и ссылки в нем, определяя "временные" блоки шаблона сайта
    Google использует механизм для отделения основного контента от динамического шума (реклама, виджеты, дата). Система сравнивает разные версии одной страницы, чтобы найти часто меняющийся контент. Затем она анализирует HTML-структуру (путь) этого контента и статистически определяет, является ли этот структурный блок "временным" для всего сайта. Такой контент игнорируется при индексации и таргетинге рекламы, а ссылки в нем могут не учитываться при расчете PageRank.
    • US8121991B1
    • 2012-02-21
    • Индексация

    • Техническое SEO

    • Структура сайта

    Как Google динамически меняет формулы ранжирования, адаптируя веса факторов под контекст запроса и пользователя
    Google не использует единую модель ранжирования. Система использует машинное обучение для создания множества специализированных моделей (Predicted Performance Functions), обученных на исторических данных о кликах для разных контекстов (Search Contexts). При получении запроса система определяет контекст (тип запроса, язык, локация пользователя) и применяет ту модель, которая лучше всего предсказывает CTR в этой ситуации, динамически изменяя значимость различных сигналов ранжирования.
    • US8645390B1
    • 2014-02-04
    • Персонализация

    • Поведенческие сигналы

    • SERP

    Как Google использует данные сессий и разнообразие результатов для генерации блока "Связанные запросы"
    Google анализирует поисковые сессии пользователей, чтобы найти запросы, которые часто следуют за одним и тем же предшествующим запросом (родственные запросы). Затем система фильтрует эти потенциальные "Связанные запросы", чтобы убедиться, что они предлагают разнообразные результаты по сравнению с исходным запросом и другими предложениями, помогая пользователям исследовать смежные, но отличные темы.
    • US8244749B1
    • 2012-08-14
    • Семантика и интент

    • Персонализация

    • Поведенческие сигналы

    Как Google выбирает Sitelinks, анализируя визуальное расположение и структуру DOM навигационных меню
    Google использует механизм для генерации Sitelinks путем рендеринга страницы и анализа DOM-структуры. Система определяет визуальное расположение (координаты X, Y) гиперссылок и группирует их на основе визуальной близости и общих родительских элементов. Sitelinks выбираются исключительно из доминирующей группы (например, главного меню), а ссылки из других групп игнорируются.
    • US9053177B1
    • 2015-06-09
    • SERP

    • Ссылки

    • Структура сайта

    Как Google фильтрует персонализированные предложения запросов на основе контента просматриваемой страницы
    Google использует механизм для генерации предложений следующего запроса после того, как пользователь покинул страницу выдачи. Система создает кандидатов на основе истории поиска пользователя, а затем фильтрует их, проверяя релевантность контенту страницы, которую пользователь просматривает в данный момент. Это гарантирует, что предложения соответствуют как интересам пользователя, так и текущему контексту просмотра.
    • US8392435B1
    • 2013-03-05
    • Персонализация

    • Поведенческие сигналы

    • SERP

    Как Google персонализирует подсказки Autocomplete, анализируя запросы похожих пользователей и обновляя локальный кэш устройства
    Google персонализирует подсказки Autocomplete (Search Suggest), анализируя поведение пользователей со схожими профилями (местоположение, интересы, история поиска). Система генерирует кастомизированное обновление для локального кэша устройства на основе запросов, введенных этими похожими пользователями. Это означает, что разные пользователи видят разные подсказки для одного и того же ввода.
    • US8868592B1
    • 2014-10-21
    • Персонализация

    • Поведенческие сигналы

    • Local SEO

    seohardcore