SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google использует нейросетевые эмбеддинги (Two-Tower Model) для семантического поиска изображений с учетом контекста страницы

EMBEDDING BASED RETRIEVAL FOR IMAGE SEARCH (Поиск изображений на основе эмбеддингов)
  • US11782998B2
  • Google LLC
  • 2020-02-28
  • 2023-10-10
  • Семантика и интент
  • Индексация
  • Мультимедиа
  • Поведенческие сигналы
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google использует систему поиска изображений, основанную на нейронных сетях (модель "Две Башни"). Система создает векторные представления (эмбеддинги) для поисковых запросов и для пар "изображение + посадочная страница", помещая их в общее семантическое пространство. Это позволяет находить релевантные изображения не по ключевым словам, а по близости векторов, учитывая как содержание картинки, так и контекст страницы, на которой она размещена.

Описание

Какую проблему решает

Патент решает ограничения традиционных систем поиска изображений (Term-based retrieval systems), которые полагаются на совпадение ключевых слов и часто используют фиксированные схемы взвешивания для объединения сигналов от изображения и его посадочной страницы. Эти методы неэффективны для длинных, редких или семантически сложных запросов и не могут полноценно уловить смысловую связь между визуальным контентом и его контекстом на странице.

Что запатентовано

Запатентована система поиска изображений на основе эмбеддингов (Embedding-based retrieval), использующая архитектуру нейронной сети, известную как модель "Две Башни" (Two-Tower Model). Одна "башня" (Image Search Query Embedding Neural Network) обрабатывает запрос, а вторая (Pair Embedding Neural Network) обрабатывает пару "изображение + посадочная страница". Обе генерируют числовые векторы (эмбеддинги) в общем пространстве, позволяя измерять семантическую релевантность через векторную близость.

Как это работает

Система функционирует в два этапа:

  • Индексирование (Офлайн): Система использует Pair Embedding Neural Network для совместной обработки признаков изображения и его посадочной страницы (включая контекст размещения). Результатом является Pair Numeric Embedding — векторное представление этой пары. Эти эмбеддинги сохраняются в индексной базе.
  • Поиск (Онлайн): При получении запроса Image Search Query Embedding Neural Network генерирует Query Numeric Embedding. Система выполняет поиск ближайших соседей (Nearest Neighbor Search) в индексной базе, находя Pair Numeric Embeddings, наиболее близкие к Query Numeric Embedding в векторном пространстве.

Ключевой аспект — обе нейронные сети обучаются совместно (trained jointly) на данных о взаимодействии пользователей, чтобы максимизировать близость (например, скалярное произведение — Dot Product) векторов для релевантных пар.

Актуальность для SEO

Высокая. Векторный поиск (Vector Search) и нейросетевой поиск информации (Neural Information Retrieval) являются передовыми направлениями в современных поисковых системах. Использование моделей Two-Tower для задач поиска (Retrieval) — это стандартная практика в индустрии для обеспечения баланса между качеством семантического понимания и скоростью работы системы.

Важность для SEO

Патент имеет высокое значение (8/10) для стратегий продвижения в Google Images. Он формализует переход от поиска по ключевым словам к семантическому поиску изображений. Для ранжирования критически важным становится не просто наличие ключевых слов в alt-тексте или заголовке, а общая семантическая согласованность между содержимым изображения, его непосредственным контекстом (окружающий текст, расположение на странице) и общей тематикой посадочной страницы. Оптимизация должна фокусироваться на качестве и релевантности всей пары "изображение + страница".

Детальный разбор

Термины и определения

Dot Product (Скалярное произведение)
Математическая операция над двумя векторами. В контексте патента используется как мера близости между Query Numeric Embedding и Pair Numeric Embedding. Более высокое значение указывает на большую релевантность.
Embedding Space (Пространство эмбеддингов)
Многомерное векторное пространство, в которое проецируются запросы и пары "изображение + страница". Расстояние в этом пространстве отражает семантическое сходство.
Embedding-based retrieval (Поиск на основе эмбеддингов)
Метод поиска кандидатов, основанный на семантической близости векторных представлений, а не на совпадении терминов.
Image Search Query Embedding Neural Network
Одна из двух "башен" модели. Обрабатывает признаки запроса (текст, локация и т.д.) и генерирует Query Numeric Embedding.
Image-Landing Page Pair (Пара изображение-посадочная страница)
Единица индексирования в системе. Включает само изображение и страницу, на которой оно размещено.
Loss Function (Функция потерь)
Функция (например, sampled softmax loss, contrastive loss), используемая при обучении модели. Цель обучения — минимизировать её значение, тем самым улучшая качество эмбеддингов.
Pair Embedding Neural Network
Вторая "башня" модели. Обрабатывает признаки изображения и посадочной страницы совместно и генерирует Pair Numeric Embedding.
Pair Numeric Embedding (Числовой эмбеддинг пары)
Векторное представление пары "изображение + страница" в Embedding Space.
Query Numeric Embedding (Числовой эмбеддинг запроса)
Векторное представление поискового запроса в том же Embedding Space.
Two-Tower Model (Модель "Две Башни")
Архитектура нейронной сети (подразумеваемая в патенте), состоящая из двух отдельных нейронных сетей, которые независимо обрабатывают два разных типа входных данных (запрос и документ/пару), но проецируют их в общее пространство.

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает основной метод поиска изображений.

  1. Система получает поисковый запрос по изображениям.
  2. Определяются числовые эмбеддинги (Pair Numeric Embeddings) для множества пар "изображение + страница". Ключевой момент: эти эмбеддинги получаются путем доступа к индексной базе (accessing an index database), где они уже были предварительно сгенерированы с помощью Pair Embedding Neural Network.
  3. Признаки запроса обрабатываются с помощью Image Search Query Embedding Neural Network для генерации Query Numeric Embedding в том же пространстве.
  4. Система идентифицирует первые результаты-кандидаты как подмножество пар, чьи эмбеддинги наиболее близки к эмбеддингу запроса.
  5. Результаты ранжируются и предоставляются пользователю.

Критическое уточнение в Claim 1: Определяет метод обучения. Pair Embedding Neural Network и Image Search Query Embedding Neural Network обучаются совместно (trained jointly) для минимизации функции потерь (loss function), которая зависит от скалярного произведения (dot product) между эмбеддингами тренировочного запроса и тренировочной пары.

Claim 3 и 4 (Зависимые от 1): Уточняют цель обучения и источник данных.

Обучение настраивает параметры сетей так, чтобы скалярное произведение было выше для положительных примеров, чем для отрицательных. Положительный пример идентифицируется, когда пользователь взаимодействовал (interacted with) с результатом поиска (т.е. клики).

Claim 5 и 6 (Зависимые от 1): Описывают совместное использование параметров.

Две нейронные сети могут разделять (использовать общие) параметры (share at least some parameters). Это особенно актуально для признаков, взятых из одного словаря (например, текстовые признаки в запросе и текстовые признаки на странице).

Claim 9-12 (Зависимые от 1): Определяют основные признаки, используемые для генерации эмбеддинга пары.

Признаки пары являются комбинацией признаков страницы и признаков изображения.

  • Признаки страницы: текст заголовка, важные термины (salient terms) на странице, текст URL, домен страницы.
  • Признаки изображения: пиксельные данные (pixel data) или эмбеддинг изображения (embedding of the image), текст URL изображения, домен изображения.

Claim 13-16 (Зависимые от 1): Определяют дополнительные признаки пары.

Упоминаются критически важные дополнительные признаки:

  • Дата обновления страницы (date the respective landing page was updated) (Claim 14).
  • Контекст изображения на странице (context of the respective image) (Claim 15).
  • Локация (расположение) изображения на странице (location of the respective image within the respective landing page) (Claim 16).

Где и как применяется

Изобретение затрагивает этапы индексирования и ранжирования (на стадии отбора кандидатов).

INDEXING – Индексирование и извлечение признаков
Основная часть работы происходит на этом этапе офлайн. Система извлекает признаки из изображений и посадочных страниц (текст, URL, дата обновления, контекст размещения изображения). Затем Pair Embedding Neural Network используется для генерации Pair Numeric Embedding для каждой пары. Эти эмбеддинги сохраняются в индексной базе данных, готовые для быстрого поиска.

QUNDERSTANDING – Понимание Запросов
При получении запроса система извлекает его признаки (текст, местоположение и т.д.). Затем Image Search Query Embedding Neural Network в реальном времени генерирует Query Numeric Embedding.

RANKING – Ранжирование (L1 Retrieval / Отбор кандидатов)
Это основное применение патента в реальном времени. Вместо традиционного поиска по инвертированному индексу (по ключевым словам), система выполняет быстрый поиск ближайших соседей (часто Approximate Nearest Neighbor, ANN) в пространстве эмбеддингов. Это позволяет эффективно сократить миллионы потенциальных изображений до небольшого набора семантически релевантных кандидатов.

Входные данные (Онлайн):

  • Признаки поискового запроса.
  • Индексная база данных предварительно вычисленных Pair Numeric Embeddings.

Выходные данные (Онлайн):

  • Набор кандидатов (First candidate image search results), отобранных на основе векторной близости.

На что влияет

  • Типы контента: Влияет исключительно на поиск изображений и представление изображений в универсальной выдаче.
  • Специфические запросы: Наибольшее влияние оказывается на длинные (long-tail), сложные или неоднозначные запросы, где точное совпадение ключевых слов менее вероятно, но семантический интент ясен.
  • Мультиязычность: Патент упоминает, что система может улучшить работу с мультиязычными запросами, используя изображения как язык-независимый сигнал для связывания контента на разных языках.

Когда применяется

Алгоритм применяется при обработке запросов в системе поиска изображений. Он используется на начальном этапе поиска (Retrieval) для быстрого отбора кандидатов. Патент указывает, что эта система (embedding-based retrieval) может использоваться совместно с традиционной системой Term-based retrieval для обеспечения максимального охвата (Recall).

Пошаговый алгоритм

Процесс А: Обучение модели (Офлайн)

  1. Сбор данных: Сбор обучающих данных, включающих запросы и результаты поиска, с которыми взаимодействовали пользователи (положительные примеры, Claim 4).
  2. Генерация примеров: Формирование положительных и отрицательных обучающих пар (запрос, изображение+страница).
  3. Извлечение признаков: Извлечение признаков из запросов, изображений и страниц.
  4. Совместное обучение (Joint Training): Обучение Image Search Query Embedding Neural Network и Pair Embedding Neural Network одновременно. Цель — минимизировать функцию потерь (например, sampled softmax loss), чтобы скалярное произведение эмбеддингов для положительных пар было высоким, а для отрицательных — низким (Claim 3).

Процесс Б: Индексирование (Офлайн)

  1. Обработка пар: Для каждой пары "изображение + страница" извлекаются признаки (текст, контекст, пиксели, даты и т.д.).
  2. Генерация эмбеддингов пар: Обученная Pair Embedding Neural Network обрабатывает признаки и генерирует Pair Numeric Embedding.
  3. Сохранение в индексе: Эмбеддинги сохраняются в индексной базе данных, оптимизированной для векторного поиска (Claim 1).

Процесс В: Обработка запроса и поиск (Онлайн)

  1. Получение запроса: Система получает запрос от пользователя.
  2. Генерация эмбеддинга запроса: Обученная Image Search Query Embedding Neural Network обрабатывает признаки запроса и генерирует Query Numeric Embedding.
  3. Векторный поиск: Система выполняет поиск ближайших соседей в индексной базе, сравнивая Query Numeric Embedding с сохраненными Pair Numeric Embeddings.
  4. Отбор кандидатов: Идентифицируется подмножество пар (Top-K), чьи эмбеддинги наиболее близки к эмбеддингу запроса.
  5. Ранжирование и выдача: Отобранные кандидаты передаются на следующие этапы ранжирования, после чего формируется выдача.

Какие данные и как использует

Данные на входе

Система использует широкий спектр признаков для генерации эмбеддингов.

Признаки запроса (Query Features):

  • Текстовые факторы: Текст запроса (упоминаются униграммы и биграммы).
  • Географические факторы: Данные о местоположении, откуда был отправлен запрос (location features).

Признаки пары (Pair Features) - Изображение:

  • Мультимедиа факторы: Пиксельные данные изображения (pixel data) или предварительно вычисленный эмбеддинг контента изображения.
  • Технические факторы: Текст из URL изображения (униграммы/биграммы), домен изображения.

Признаки пары (Pair Features) - Посадочная страница:

  • Контентные факторы: Текст заголовка страницы (title), важные термины на странице (salient terms). Также упоминаются ключевые слова, характеризующие контент, и язык страницы.
  • Технические факторы: Текст из URL страницы, домен страницы.
  • Временные факторы: Дата первого сканирования или обновления страницы (date the page was first crawled or updated) (Claim 14).
  • Авторские факторы: Данные, характеризующие автора страницы.

Признаки пары (Pair Features) - Контекст изображения на странице:

  • Структурные факторы (Локация): Расположение изображения на странице (Claim 16). Упоминаются пиксельные координаты, идентификатор на основе HTML/XML DOM (XPATH-like), CSS-селектор.
  • Структурные факторы (Значимость): Заметность (prominence) изображения на странице, измеряемая через относительный размер отображения.
  • Контентные факторы (Описание): Текстовые описания изображения на странице, включая alt-text (alt-text labels) и текст, окружающий изображение (text surrounding the image).

Поведенческие факторы (Для обучения):

  • Данные о взаимодействии пользователей с результатами поиска (клики) используются для определения положительных и отрицательных обучающих примеров (Claim 4).

Какие метрики используются и как они считаются

  • Векторная близость: Основная метрика для поиска. Измеряется как близость в Embedding Space. Конкретно упоминается Dot Product (скалярное произведение) между Query Numeric Embedding и Pair Numeric Embedding.
  • Функция потерь (Loss Function): Используется при обучении для оптимизации параметров модели. Упоминаются softmax with cross-entropy loss, sampled softmax loss и contrastive loss functions.
  • Метрики признаков: Внутри нейронных сетей признаки (например, текст) преобразуются в векторы с помощью встраиваемых подсетей (embedding subnetworks) или таблиц поиска (look-up table).

Выводы

  1. (Изображение + Страница) как единое целое: Ключевой вывод — Google не ранжирует изображение изолированно. Система генерирует единый эмбеддинг (Pair Numeric Embedding), объединяя признаки изображения и его контекста на странице (тема страницы, окружающий текст, расположение, заметность). Это подчеркивает важность сильной тематической связи между визуальным и текстовым контентом.
  2. Семантическое понимание в поиске изображений: Патент подтверждает переход Google от сопоставления ключевых слов к глубокому семантическому пониманию (Embedding-based retrieval). Система стремится понять смысл запроса и контента с помощью векторных представлений.
  3. Архитектура Two-Tower для эффективности: Использование модели "Две Башни" позволяет предварительно вычислять эмбеддинги для всех изображений офлайн. В реальном времени вычисляется только эмбеддинг запроса, что обеспечивает высокую скорость поиска (Retrieval) с помощью методов ближайших соседей (ANN).
  4. Обучение на основе взаимодействий пользователей: Модели обучаются совместно (trained jointly) на основе реальных пользовательских взаимодействий (кликов). Система адаптируется к тому, что пользователи считают полезным.
  5. Важность технических и структурных факторов: Патент явно указывает на использование структурных данных о размещении изображения (локация) и его заметности (prominence). Это говорит о важности технической оптимизации и UX для интерпретации контекста изображения.
  6. Свежесть как сигнал: Дата обновления страницы (Claim 14) явно указана как один из признаков, используемых для генерации эмбеддинга пары, что подтверждает важность актуальности контента.

Практика

Best practices (это мы делаем)

  • Обеспечение сильной семантической согласованности: Убедитесь, что изображение, его непосредственный контекст (alt-текст, подпись, окружающий текст) и общая тема посадочной страницы тесно связаны семантически. Система должна понять, что эта страница является лучшим контекстом для этого изображения.
  • Оптимизация контекста размещения изображения: Размещайте наиболее важные изображения на видном месте (prominence) и в релевантном текстовом окружении. Патент учитывает расположение (location) и окружающий текст как признаки для эмбеддинга.
  • Использование высококачественных и уникальных изображений: Поскольку система использует визуальные признаки (пиксельные данные или эмбеддинги контента изображения), качество, уникальность и информативность изображения играют роль в формировании итогового Pair Numeric Embedding.
  • Поддержание актуальности контента: Поскольку дата обновления страницы используется как признак (Claim 14), регулярное обновление и актуализация посадочных страниц с важными изображениями может положительно влиять на их эмбеддинги.
  • Техническая оптимизация URL: Используйте описательные URL для страниц и файлов изображений. Текст из URL страницы и изображения явно указан как входной признак для нейронной сети.

Worst practices (это делать не надо)

  • Размещение нерелевантных изображений (Image Stuffing): Добавление изображений на страницу, которые семантически не связаны с ее контентом. Это приведет к формированию "размытого" эмбеддинга пары, который не будет соответствовать конкретным запросам.
  • Оптимизация только Alt-текста: Фокусировка исключительно на ключевых словах в alt-тексте при игнорировании окружающего контента. Система анализирует гораздо более широкий контекст для понимания релевантности.
  • Использование вводящих в заблуждение контекстов: Размещение изображения в окружении текста, который не соответствует его содержанию (например, кликбейт). Это может привести к плохому взаимодействию пользователей, что в дальнейшем негативно повлияет на обучение модели (поскольку обучение основано на кликах).
  • Игнорирование технических сигналов и UX: Скрытие изображений с помощью CSS, размещение их в самом низу страницы или в неинформативных блоках (футер, сайдбар) может снизить их значимость при расчете эмбеддинга из-за низких показателей location и prominence.

Стратегическое значение

Этот патент подтверждает, что Google Images функционирует как полноценная семантическая (векторная) поисковая система. Стратегия SEO должна рассматривать пару "изображение + посадочная страница" как единое целое. Успех зависит от способности создавать контент, где визуальные и текстовые элементы дополняют друг друга, формируя четкий семантический сигнал. Развитие тематического авторитета (Topical Authority) сайта положительно влияет на поиск изображений, так как авторитетная страница обеспечивает более сильный контекстуальный сигнал для размещенных на ней изображений.

Практические примеры

Сценарий: Оптимизация карточки товара E-commerce

Задача: Улучшить ранжирование основного изображения товара "Кроссовки Nike Air Max 270 Black" в Google Images.

  1. Анализ текущего состояния: Традиционный подход фокусируется на alt="Кроссовки Nike Air Max 270 Black".
  2. Применение инсайтов патента: Система генерирует Pair Numeric Embedding, учитывая:
    • Изображение: Высокое качество, четкое изображение кроссовок (pixel data/визуальный эмбеддинг).
    • Контекст: Изображение размещено на видном месте, вверху страницы (prominence, location).
    • Посадочная страница: Заголовок H1 содержит название модели, в тексте присутствуют релевантные термины (salient terms) — "амортизация Air", "черный цвет", "мужская обувь". Дата обновления страницы актуальна (date updated).
  3. Действия: Разместить изображение как основной элемент первого экрана. Убедиться, что текст вокруг изображения (например, блок с характеристиками) содержит семантически связанные термины. Обновить контент страницы, добавив свежий отзыв или обзор для актуализации даты.
  4. Ожидаемый результат: Pair Embedding Neural Network генерирует более сильный и точный эмбеддинг для этой пары. Когда пользователь ищет "Nike Air Max 270 Black", Query Numeric Embedding будет иметь высокую близость (Dot Product) к эмбеддингу этой пары, улучшая её позиции на этапе Retrieval.

Вопросы и ответы

Что такое модель "Две Башни" (Two-Tower Model) и почему Google её использует?

Это архитектура нейронной сети, состоящая из двух отдельных сетей (башен). Одна обрабатывает запрос, другая — документ (в данном случае пару изображение+страница). Они работают независимо, но проецируют результаты в общее векторное пространство. Google использует эту модель для обеспечения высокой скорости поиска: эмбеддинги всех изображений можно вычислить заранее офлайн, и только эмбеддинг запроса вычисляется в реальном времени.

Чем этот подход отличается от традиционного поиска изображений?

Традиционный поиск (Term-based retrieval) в основном ищет совпадения ключевых слов из запроса в метаданных изображения (alt-текст) и тексте страницы. Описанный подход (Embedding-based retrieval) основан на семантическом понимании. Он сравнивает смысл запроса со смыслом пары "изображение + контекст", используя векторную близость. Это позволяет находить релевантные результаты, даже если в них нет точного совпадения ключевых слов.

Насколько важен Alt-текст в этой модели?

Alt-текст остается важным признаком, но теперь он является лишь одним из многих элементов контекста, используемых для генерации Pair Numeric Embedding. Система также анализирует окружающий текст, заголовок страницы, важные термины на странице, и даже расположение и размер изображения. Важнее всего общая семантическая согласованность всех этих элементов, а не просто наличие ключей в alt.

Учитывает ли система качество самого изображения?

Да. Патент указывает, что признаки изображения включают пиксельные данные (pixel data) или эмбеддинг контента изображения. Это означает, что визуальные характеристики, качество, уникальность и информативность изображения напрямую влияют на итоговый Pair Numeric Embedding и, следовательно, на его способность ранжироваться.

Как расположение изображения на странице влияет на поиск?

Патент (Claim 15 и 16) явно упоминает использование локации (location) и заметности (prominence) изображения как признаков. Изображения, расположенные на видном месте, в основном контенте и имеющие достаточный размер, вероятно, получат больший вес при формировании эмбеддинга пары, чем изображения в футере или на боковой панели.

Влияет ли свежесть контента на поиск изображений согласно этому патенту?

Да, влияет. В патенте (Claim 14) явно указано, что дата обновления посадочной страницы (date the respective landing page was updated) является одним из признаков, используемых для генерации Pair Numeric Embedding. Это подчеркивает важность поддержания актуальности страниц, на которых размещены изображения.

Как система определяет, какие пары релевантны запросу?

Релевантность определяется путем измерения близости между вектором запроса (Query Numeric Embedding) и вектором пары (Pair Numeric Embedding) в общем векторном пространстве. Конкретно упоминается использование скалярного произведения (Dot Product). Чем ближе векторы, тем релевантнее результат.

На основе чего обучается эта модель?

Модель обучается на основе данных о взаимодействии пользователей (Claim 3 и 4). Если пользователь кликнул на результат поиска по запросу, это считается положительным примером. Система обучается так, чтобы максимизировать близость векторов для положительных примеров и минимизировать для отрицательных.

Может ли эта система помочь в мультиязычном поиске?

Да. В описании патента упоминается, что размещение запросов и пар в общем пространстве эмбеддингов может помочь выявить связи между контентом на разных языках. Поскольку изображения часто являются язык-независимыми, модель может использовать визуальное сходство для связывания страниц с похожим контентом, но на разных языках.

Что важнее для SEO: оптимизация изображения или оптимизация страницы?

Они неразделимы. Система генерирует эмбеддинг для ПАРЫ (Image-Landing Page Pair). Невозможно добиться успеха, оптимизируя только изображение (например, качественная картинка на нерелевантной странице) или только страницу (например, релевантный текст с низкокачественным или несоответствующим изображением). Ключ к успеху — синергия и семантическая согласованность обоих элементов.

Похожие патенты

Как Google использует архитектуру нейронных сетей «Two-Tower» для семантического поиска и оценки контента
Google использует модель с двумя отдельными нейронными сетями (Two-Tower Model) для понимания семантической релевантности между запросами и контентом. Одна сеть обрабатывает запрос, другая — контент, преобразуя их в векторы (embeddings). Релевантность определяется близостью этих векторов, а не совпадением ключевых слов. Эта архитектура позволяет Google предварительно вычислять векторы для всего контента во время индексации, обеспечивая быстрый семантический поиск в реальном времени.
  • US11188824B2
  • 2021-11-30
  • Семантика и интент

  • Индексация

Как Google использует единый Image Embedding для параллельного поиска по разным вертикалям (Web, Shopping, Local) при визуальном запросе
Google патентует механизм для улучшения визуального поиска (например, Google Lens). Система генерирует единое векторное представление (Image Embedding) для изображения-запроса и использует его для одновременного поиска визуально похожих результатов в нескольких разных базах данных (например, в общем веб-индексе и специализированном индексе товаров или локаций). Контекст пользователя (местоположение, история) помогает системе выбрать, какие специализированные базы активировать для поиска.
  • US20240311421A1
  • 2024-09-19
  • Мультимедиа

  • Индексация

  • Семантика и интент

Как Google использует несколько изображений в одном запросе для уточнения визуального поиска через общие атрибуты и проекции эмбеддингов
Google использует механизм поиска, принимающий на вход два или более изображения. Система анализирует их для выявления общих атрибутов (стиль, цвет, тип объекта) и генерирует векторные представления (эмбеддинги). Если изображения вводятся последовательно, система вычисляет «траекторию» интереса пользователя в векторном пространстве и проецирует поиск в этом направлении, чтобы найти результаты, соответствующие эволюционирующему визуальному интенту.
  • US12271417B2
  • 2025-04-08
  • Мультимедиа

  • Семантика и интент

Как Google объединяет изображения и текст в мультимодальном поиске для уточнения визуальных запросов
Google использует модель уточнения запросов для мультимодального поиска (например, в Google Lens). Система принимает эмбеддинг исходного изображения и текстовое уточнение от пользователя. Модель генерирует новый, уточненный эмбеддинг изображения, который объединяет визуальные данные с текстовым интентом. Этот новый эмбеддинг используется для поиска релевантных изображений в общем пространстве эмбеддингов, позволяя пользователям итеративно уточнять визуальный поиск текстом.
  • US20240370487A1
  • 2024-11-07
  • Мультимедиа

  • Семантика и интент

Как Google создает семантические векторы (эмбеддинги) для понимания смысла целых документов (Doc2Vec)
Патент описывает нейросетевой метод (известный как Doc2Vec) для преобразования документов любой длины в числовые векторы (эмбеддинги). Эти векторы фиксируют семантику и контекст всего документа, позволяя системе понимать смысл контента, классифицировать его и находить похожие документы, даже если в них используются разные слова.
  • US20150220833A1
  • 2015-08-06
  • Семантика и интент

Популярные патенты

Как Google использует машинное обучение и поведенческие данные для прогнозирования полезности документов и решает, что включать в поисковый индекс
Google использует модель машинного обучения для определения, какие документы включать в поисковый индекс. Модель обучается на исторических данных о кликах и показах, чтобы предсказать будущую «оценку полезности» (Utility Score) документа. Документы ранжируются по этой оценке, а также с учетом других факторов (например, PageRank, стоимость индексации, свежесть, квоты), и лучшие из них попадают в индекс.
  • US8255386B1
  • 2012-08-28
  • Индексация

  • Поведенческие сигналы

Как Google использует анализ параллельных анкорных текстов и кликов пользователей для перевода запросов и кросс-язычного поиска
Google использует механизм для автоматического перевода запросов с одного языка или набора символов на другой. Система создает вероятностный словарь, анализируя, как анкорные тексты на разных языках ссылаются на одни и те же страницы (параллельные анкоры). Вероятности перевода затем уточняются на основе того, на какие результаты кликают пользователи. Это позволяет осуществлять кросс-язычный поиск (CLIR).
  • US8706747B2
  • 2014-04-22
  • Мультиязычность

  • Семантика и интент

  • Ссылки

Как Google динамически регулирует влияние фактора близости в локальном поиске в зависимости от тематики запроса и региона
Google использует систему для определения того, насколько важна близость (расстояние) для конкретного поискового запроса и региона. Анализируя исторические данные о кликах и запросах маршрутов, система вычисляет «Фактор важности расстояния». Для запросов типа «Кофе» близость критична, и удаленные результаты пессимизируются. Для запросов типа «Аэропорт» близость менее важна, и качественные результаты могут ранжироваться высоко. Система также учитывает плотность региона (город или село), адаптируя ожидания пользователей по расстоянию.
  • US8463772B1
  • 2013-06-11
  • Local SEO

  • Поведенческие сигналы

Как Google динамически повышает порог качества для результатов поиска по «рискованным» запросам
Google оценивает «риск» поискового запроса, анализируя общее качество топовых результатов. Если запрос часто привлекает спам, кликбейт или нежелательный контент (особенно видео), система динамически повышает минимальный порог качества. Контент, не соответствующий этому повышенному стандарту, понижается в выдаче, при этом учитываются такие сигналы, как показатель просмотров (Watch Rate).
  • US11609949B2
  • 2023-03-21
  • Антиспам

  • SERP

  • Поведенческие сигналы

Как Google использует клики (CTR) и время на сайте (Click Duration) для выявления спама и корректировки ранжирования в тематических выдачах
Google использует итеративный процесс для улучшения классификации контента и выявления спама, анализируя поведенческие сигналы (CTR и продолжительность клика). Если пользователи быстро покидают документ или игнорируют его в выдаче, он помечается как спам или нерелевантный теме. Эти данные затем используются для переобучения классификатора и корректировки ранжирования для будущих тематических запросов.
  • US7769751B1
  • 2010-08-03
  • Поведенческие сигналы

  • Антиспам

  • SERP

Как Google использует социальный граф и активность друзей для персонализации и переранжирования результатов поиска
Google использует данные из социального графа пользователя и активность его контактов (лайки, шеры, комментарии, плейлисты) для изменения ранжирования результатов поиска. Контент, одобренный социальным окружением, повышается в выдаче и сопровождается аннотациями, объясняющими причину повышения и указывающими на свежесть социального действия.
  • US8959083B1
  • 2015-02-17
  • Персонализация

  • Поведенческие сигналы

  • SERP

Как Google перенаправляет пользователей на «идеальные» запросы (KHRQ), анализируя поведение и удовлетворенность
Google анализирует логи запросов, чтобы определить «известные высокоранжированные запросы» (KHRQ) — те, которые пользователи вводят часто и которыми остаются довольны (редко переформулируют или долго изучают результаты). Система вычисляет вероятность того, что исходный запрос пользователя лучше заменить на KHRQ, основываясь на сходстве запросов и исторических цепочках переформулировок. Это позволяет направлять пользователей к наиболее эффективным формулировкам.
  • US7870147B2
  • 2011-01-11
  • Семантика и интент

  • Поведенческие сигналы

  • SERP

Как Google Assistant адаптирует выдачу на лету, позволяя пользователям навигировать по результатам и запоминать предпочтения по источникам и темам
Google использует механизм для диалоговых систем (например, Google Assistant), позволяющий пользователям взаимодействовать с поисковой выдачей через естественный язык. Система предоставляет результаты последовательно и адаптирует порядок выдачи в ответ на команды навигации (например, «Вернись к новости о Кафе»). Кроме того, система фиксирует отношение пользователя к атрибутам контента (например, «Не показывай новости из Источника 1») и использует эти данные для фильтрации или изменения ранжирования в текущих и будущих сессиях.
  • US10481861B2
  • 2019-11-19
  • Персонализация

  • Семантика и интент

  • Поведенческие сигналы

Как Google идентифицирует, связывает и индексирует концепции (фразы) для понимания тем документов
Фундаментальный патент Google, описывающий переход от индексирования слов к индексированию концепций (фраз). Система определяет «хорошие фразы» на основе частотности и их способности прогнозировать появление других фраз (Information Gain). Документы индексируются не только по содержащимся в них фразам, но и по наличию связанных фраз, что позволяет системе определять основные и второстепенные темы документа, а также контекстуально оценивать анкорный текст ссылок.
  • US7536408B2
  • 2009-05-19
  • Индексация

  • Семантика и интент

  • Ссылки

Как Google персонализирует сниппеты и заголовки в выдаче на основе истории поиска и интересов пользователя
Google может динамически изменять сниппеты и заголовки (Title) результатов поиска, чтобы выделить ту часть контента на странице, которая соответствует известным интересам пользователя (история поиска, демография, недавний контекст). Это позволяет сделать представление выдачи более персонализированным, не обязательно изменяя ранжирование документов.
  • US9235626B2
  • 2016-01-12
  • Персонализация

  • SERP

  • Семантика и интент

seohardcore