SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google использует единый Image Embedding для параллельного поиска по разным вертикалям (Web, Shopping, Local) при визуальном запросе

MULTIPLE DATASET SEARCH BASED ON A VISUAL QUERY (Поиск по нескольким наборам данных на основе визуального запроса)
  • US20240311421A1 (Application)
  • Google LLC
  • 2023-03-13
  • 2024-09-19
  • Мультимедиа
  • Индексация
  • Семантика и интент
  • Local SEO
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google патентует механизм для улучшения визуального поиска (например, Google Lens). Система генерирует единое векторное представление (Image Embedding) для изображения-запроса и использует его для одновременного поиска визуально похожих результатов в нескольких разных базах данных (например, в общем веб-индексе и специализированном индексе товаров или локаций). Контекст пользователя (местоположение, история) помогает системе выбрать, какие специализированные базы активировать для поиска.

Описание

Какую проблему решает

Патент решает проблему ограниченности и одномерности результатов традиционного визуального поиска. Часто результаты визуального запроса не соответствуют истинному намерению пользователя (например, пользователь ищет товар для покупки, а получает только информационные ссылки) или требуют ручного уточнения области поиска (например, переключения между вкладками Web, Shopping). Изобретение направлено на автоматическое предоставление разнообразных, многомерных результатов из различных источников (датасетов) в ответ на единственный визуальный запрос, устраняя необходимость в ручном уточнении.

Что запатентовано

Запатентована система, которая обрабатывает визуальный запрос (Image Data) с помощью Embedding Model для создания векторного представления (Image Embedding). Этот эмбеддинг затем используется для одновременного поиска в нескольких различных наборах данных (Multiple Datasets), как минимум в общем индексе (Global Database) и одном или нескольких специализированных индексах (Specialized Database). Система может динамически выбирать релевантные специализированные базы на основе контекста и применять разные методы поиска (векторный или мультимодальный) для разных баз.

Как это работает

Система функционирует следующим образом:

  • Генерация вектора: Полученное изображение-запрос обрабатывается моделью для создания Image Embedding, который фиксирует его визуальные характеристики.
  • Выбор датасетов: Система определяет, в каких базах данных искать. Всегда может использоваться общая база. Выбор специализированных баз (например, Товары, Локации) может динамически определяться на основе Context Data (местоположение пользователя, история поиска, классификация объекта на изображении).
  • Параллельный поиск: Image Embedding используется для поиска визуально похожих элементов в каждом выбранном датасете. Для разных датасетов могут применяться разные техники: чистый поиск по схожести эмбеддингов или комбинация эмбеддинга с Text Labels или Visual Tokens (мультимодальный поиск).
  • Агрегация результатов: Результаты из всех датасетов (общие и специализированные) объединяются и предоставляются пользователю в едином интерфейсе.

Актуальность для SEO

Критически высокая. Визуальный поиск (Google Lens, Circle to Search) является ключевым элементом стратегии Google. Описанный механизм напрямую соответствует текущим тенденциям к мультимодальному поиску (MUM, Gemini) и интеграции различных вертикалей (Shopping, Local) в единый пользовательский опыт. Патент подан недавно (2023 год), что указывает на его актуальность для текущих систем.

Важность для SEO

Влияние на SEO значительное (85/100), особенно для E-commerce, локального бизнеса и контент-проектов с богатым визуальным контентом. Патент подчеркивает переход к векторному поиску на основе Embeddings как универсальному методу сопоставления контента. Для попадания в выдачу по визуальным запросам критически важно, чтобы изображения сайта были высокого качества и присутствовали не только в общем индексе, но и в специализированных вертикалях (например, Google Shopping через Merchant Center).

Детальный разбор

Термины и определения

Context Data (Контекстные данные)
Информация, связанная с визуальным запросом или пользователем. Используется для определения Particular Context и выбора релевантных специализированных баз данных. Включает историю поиска/браузинга/покупок пользователя, местоположение, время, тренды, используемое приложение или классификацию объектов на изображении.
Embedding Model (Модель для создания эмбеддингов)
Машинно-обученная модель (например, нейронная сеть с энкодерами), обученная преобразовывать входное изображение в Image Embedding.
First Database / Global Database (Первая / Глобальная база данных)
Общий набор данных, связанный с множеством веб-ресурсов. Соответствует основному веб-индексу или индексу изображений Google.
Image Data (Данные изображения)
Входные данные для системы (визуальный запрос). Могут включать одно или несколько изображений, видеопоток в реальном времени (live video feed) или выделенную часть изображения.
Image Embedding (Эмбеддинг изображения)
Векторное представление (числовой вектор) изображения, сгенерированное Embedding Model. Фиксирует визуальные признаки (Image Features). Используется для поиска схожих элементов путем сравнения векторов.
Second Database / Specialized Database (Вторая / Специализированная база данных)
Набор данных, ориентированный на конкретный тип результатов, объектов, приложений или действий (покупка, навигация, бронирование). Примеры: база данных товаров (Shopping), локальная база данных (Local), база данных недвижимости (MLS), личная фотогалерея пользователя.
Text Labels (Текстовые метки)
Классификации или описания объектов на изображении. Используются в мультимодальном поиске в сочетании с Image Embedding.
Visual Tokens (Визуальные токены)
Токенизированные визуальные признаки изображения, сгенерированные блоком токенизации (Tokenizer Block). Могут использоваться для отбора кандидатов поиска или для их ранжирования.

Ключевые утверждения (Анализ Claims)

Патент содержит три основных независимых пункта (Claim 1, 11, 17), описывающих разные варианты реализации системы.

Claim 1 (Независимый пункт): Описывает базовый механизм параллельного поиска по эмбеддингу.

  1. Система получает визуальный запрос (Image Data).
  2. Генерирует Image Embedding с помощью Embedding Model.
  3. Выполняет поиск общих результатов в Первой (глобальной) базе данных, используя Image Embedding.
  4. Выполняет поиск специализированных результатов во Второй (специализированной) базе данных, также используя Image Embedding.
  5. Предоставляет оба набора результатов в интерфейсе.

Ядро изобретения — использование одного и того же Image Embedding для одновременного поиска в двух разных типах баз данных (общей и специализированной).

Claim 11 (Независимый пункт): Описывает механизм выбора специализированной базы на основе контекста.

  1. Система получает визуальный запрос и Context Data.
  2. Генерирует Image Embedding.
  3. Выполняет поиск в Первой (глобальной) базе данных.
  4. Определяет (выбирает) специализированную базу данных, основываясь на контексте (Particular Context).
  5. Выполняет поиск во Второй (выбранной специализированной) базе данных.
  6. Предоставляет результаты.

Ключевое отличие от Claim 1: специализированная база данных не предопределена, а выбирается динамически на основе контекста запроса или пользователя.

Claim 17 (Независимый пункт): Описывает мультимодальный подход к поиску в разных базах.

  1. Система получает визуальный запрос.
  2. Генерирует Image Embedding.
  3. Определяет Text Labels (классификации) для объектов на изображении.
  4. Выполняет поиск в Первой базе данных, используя только Image Embedding.
  5. Выполняет поиск во Второй базе данных, используя и Image Embedding, и Text Labels.
  6. Предоставляет результаты.

Ключевое отличие: для разных баз данных используются разные методы поиска. Одна база использует чистый векторный поиск, другая — мультимодальный (вектор + текст).

Где и как применяется

Изобретение затрагивает несколько этапов поисковой архитектуры, обеспечивая работу систем визуального поиска типа Google Lens.

INDEXING – Индексирование и извлечение признаков
На этом этапе система предварительно обрабатывает контент из различных баз данных (Web, Shopping, Local и т.д.). Для каждого элемента генерируются и сохраняются Search Result Embeddings. Критически важно, чтобы эти эмбеддинги находились в совместимом векторном пространстве с Image Embedding запроса.

QUNDERSTANDING – Понимание Запросов
Основное применение. При получении визуального запроса система:

  1. Генерирует Image Embedding запроса в реальном времени.
  2. Может генерировать Visual Tokens или Text Labels (мультимодальная обработка).
  3. Собирает и анализирует Context Data.
  4. Принятие решения о триггерах (Triggering): Используя контекст и/или классификацию изображения, система решает, какие специализированные базы данных (вертикали) следует активировать для поиска параллельно с общим индексом (Claim 11).

RANKING – Ранжирование (Параллельное выполнение)
Система запускает процессы поиска одновременно в выбранных базах данных (L1/Retrieval).

  • Общий индекс: Поиск может выполняться только на основе Image Embedding (Claim 17).
  • Специализированный индекс: Поиск может выполняться на основе Image Embedding (Claim 1) или мультимодально (Embedding + Text Labels) (Claim 17).

На этапах L2/L3 происходит ранжирование кандидатов. Патент упоминает (Claims 6-9), что Visual Tokens могут использоваться для отбора кандидатов (Retrieval), а Embedding — для их ранжирования (Ranking), или наоборот.

METASEARCH – Метапоиск и Смешивание
Результаты из разных баз данных (General Search Results и Specialized Search Results) агрегируются. Система формирует единый интерфейс (Search Results Interface). Результаты могут отображаться в отдельных панелях для каждой базы или смешиваться (intermingled).

Входные данные:

  • Image Data (визуальный запрос).
  • Context Data (местоположение, история пользователя, метаданные).
  • Индексы различных баз данных с предварительно рассчитанными эмбеддингами.

Выходные данные:

  • Наборы результатов из каждой активированной базы данных.
  • Сформированный интерфейс поисковой выдачи.

На что влияет

  • Конкретные типы контента: Наибольшее влияние на контент, где визуальная составляющая является основной: товары (E-commerce), локации (Local), недвижимость (упоминается MLS database), мода.
  • Специфические запросы: Запросы, направленные на идентификацию объектов, поиск похожих товаров или мест (например, запросы через Google Lens).
  • Конкретные ниши или тематики: E-commerce, Local Search, Недвижимость, Путешествия.

Когда применяется

  • Условия работы: Алгоритм применяется при получении визуального запроса.
  • Триггеры активации:
    • Поиск в общей базе данных происходит по умолчанию.
    • Поиск в специализированных базах данных активируется, если система определяет релевантный контекст (Claim 11). Например, если пользователь находится в торговом центре (контекст локации) и фотографирует обувь (контекст объекта), активируется база данных товаров.

Пошаговый алгоритм

Описаны три основных варианта работы системы, соответствующие независимым Claims.

Вариант А: Базовый параллельный поиск (на основе Claim 1 и FIG. 3)

  1. Получение данных: Система получает Image Data.
  2. Генерация эмбеддинга: Image Data обрабатывается Embedding Model для создания Image Embedding.
  3. Поиск в общей базе: Система ищет в Первой (глобальной) базе данных результаты, чьи эмбеддинги имеют пороговую схожесть (threshold pairwise similarity) с эмбеддингом запроса.
  4. Поиск в специализированной базе: Система одновременно ищет во Второй (предопределенной специализированной) базе данных на основе того же Image Embedding.
  5. Агрегация и отображение: Результаты объединяются и предоставляются в интерфейсе.

Вариант Б: Контекстно-зависимый поиск (на основе Claim 11 и FIG. 4, 7)

  1. Получение данных: Система получает Image Data и Context Data.
  2. Определение контекста: Данные анализируются для установления контекста (Particular Context).
  3. Генерация эмбеддинга: Создается Image Embedding запроса.
  4. Поиск в общей базе: Выполняется поиск в глобальной базе данных.
  5. Выбор специализированной базы: Система выбирает одну или несколько специализированных баз данных, релевантных определенному контексту.
  6. Поиск в специализированной базе: Выполняется поиск в выбранных базах на основе Image Embedding.
  7. Агрегация и отображение: Результаты объединяются и отображаются.

Вариант В: Мультимодальный поиск с разными стратегиями (на основе Claim 17 и FIG. 8)

  1. Получение данных: Система получает Image Data.
  2. Мультимодальная обработка запроса: Система генерирует Image Embedding И определяет Text Labels для объектов на изображении.
  3. Поиск в первой базе (Векторный): Поиск выполняется только на основе Image Embedding.
  4. Поиск во второй базе (Мультимодальный): Поиск выполняется с использованием комбинации Image Embedding и Text Labels.
  5. Агрегация и отображение: Результаты объединяются и отображаются.

Какие данные и как использует

Данные на входе

Система использует следующие типы данных:

  • Мультимедиа факторы (Визуальные данные): Image Data является основным входом. Система анализирует Image Features (визуальные признаки объектов).
  • Пользовательские факторы: Используются как часть Context Data. Включают историю поиска (user search history), историю просмотров, историю покупок, предпочтения пользователя.
  • Географические факторы: Местоположение (Location Data), где был сделан снимок или находится пользователь. Критично для выбора локальных баз данных.
  • Временные факторы: Время суток, сезон. Используются как часть Context Data.
  • Системные данные: Информация о приложении, через которое выполняется запрос (например, камера, браузер, соцсеть).

Какие метрики используются и как они считаются

Патент упоминает ключевые метрики и методы:

  • Pairwise Similarity (Попарная схожесть): Основная метрика для векторного поиска. Измеряет близость между Image Embedding запроса и эмбеддингами контента в базах данных. Поиск возвращает результаты, превышающие порог (threshold pairwise similarity).
  • Learned Distribution (Выученное распределение): Упоминается, что эмбеддинги могут быть ассоциированы с выученным распределением, связанным с конкретным объектом или типом объекта. Может использоваться для уточнения поиска.
  • Relevance Ranking (Ранжирование по релевантности): Используется для определения позиций результатов. Может основываться на схожести эмбеддингов, релевантности Visual Tokens или Text Labels.
  • Классификация: Используется для генерации Text Labels и определения контекста на основе объектов в изображении (например, классификация объекта как "дом" для активации поиска по недвижимости).

Выводы

  1. Универсальность Image Embeddings как основа поиска: Ключевой вывод — Google использует единое векторное представление (Image Embedding) как универсальный "ключ" для поиска визуально похожего контента в любых своих индексах (Web, Shopping, Local). Это подтверждает стратегический переход к семантическому и визуальному пониманию контента через векторы.
  2. Контекст определяет Вертикаль: Система не просто ищет везде, она интеллектуально выбирает, где искать (Claim 11). Context Data (местоположение, история пользователя, тип объекта на фото) определяют, какие специализированные базы данных будут активированы.
  3. Гибкость и Мультимодальность Поиска: Google может применять разные стратегии поиска для разных баз данных одновременно (Claim 17). Например, чистый векторный поиск для общего индекса и гибридный (вектор + текст/токены) для индекса товаров, что повышает точность в специализированных вертикалях.
  4. Визуальный поиск становится мульти-интентным: Предоставление результатов из разных баз одновременно направлено на удовлетворение различных намерений пользователя (узнать, купить, найти рядом) в рамках одного запроса.
  5. Важность индексации во всех вертикалях: Для SEO это означает, что недостаточно присутствовать только в общем индексе. Контент должен быть доступен и оптимизирован для соответствующих специализированных индексов (например, Merchant Center для товаров, GBP для локаций), чтобы участвовать в этом параллельном поиске.

Практика

Best practices (это мы делаем)

  • Оптимизация изображений для векторного поиска: Необходимо обеспечить, чтобы ключевые изображения были высокого качества, четкими и хорошо представляли объект. Это повышает вероятность генерации точного Embedding и сопоставления с запросами пользователей по визуальной схожести.
  • Обеспечение присутствия в специализированных базах данных: Критически важно быть проиндексированным в релевантных вертикалях. Для E-commerce это Google Merchant Center (Shopping), для локального бизнеса — Google Business Profile (Local). Это гарантирует участие в поиске по Specialized Databases.
  • Насыщение контента контекстными сигналами: Усиливайте контекст страницы, где размещено изображение. Четкая разметка (Schema.org/Product или LocalBusiness), релевантные заголовки и описания помогают системе корректно классифицировать изображение (генерировать Text Labels) и выбрать правильную вертикаль (Claim 11).
  • Оптимизация под мультимодальный поиск: Поскольку система может использовать Text Labels вместе с эмбеддингами (Claim 17), важно оптимизировать текстовые атрибуты (alt-текст, описания). Это помогает в сценариях, где поиск комбинирует визуальную схожесть и текстовые фильтры.
  • Создание уникального визуального контента: Использование уникальных фотографий вместо стоковых помогает выделиться в поиске, основанном на схожести эмбеддингов, и точнее соответствовать конкретным визуальным запросам.

Worst practices (это делать не надо)

  • Использование стоковых или нерелевантных изображений: Использование общих изображений, плохо отражающих суть товара или услуги, снижает эффективность визуального поиска. Embeddings таких изображений будут соответствовать множеству нерелевантных запросов.
  • Игнорирование специализированных вертикалей: Фокусироваться только на SEO для веб-поиска и игнорировать оптимизацию под Google Shopping или Local Search — это упущенная возможность, так как система активно ищет результаты в этих вертикалях параллельно.
  • Низкое качество изображений: Размытые или темные изображения приведут к генерации неточных эмбеддингов и снизят релевантность в визуальном поиске.
  • Блокировка индексации ключевых изображений: Сокрытие изображений от краулеров не позволит системе сгенерировать Embeddings и включить их в визуальный поиск.

Стратегическое значение

Этот патент подтверждает стратегию Google на развитие поиска за пределами текста, делая визуальный ввод (через Google Lens и аналогичные технологии) равноправным типом запроса. Для SEO это означает необходимость интеграции стратегий визуального поиска (VSO) в общую стратегию продвижения. Понимание того, как Google интерпретирует изображения через Embeddings и как контекст влияет на выбор вертикалей, становится ключевой компетенцией, особенно в E-commerce и Local SEO.

Практические примеры

Сценарий 1: Оптимизация карточки товара в E-commerce (Контекстный поиск)

  • Задача: Увеличить трафик из визуального поиска на карточку нового дивана.
  • Действия на основе патента:
    • Качественные фото: Разместить высококачественные фотографии дивана с разных ракурсов для генерации точных Embeddings.
    • Merchant Center: Загрузить фид, чтобы товар попал в Specialized Database (Shopping).
    • Микроразметка: Внедрить Schema.org/Product. Это поможет системе определить контекст (это товар) и сгенерировать Text Labels.
  • Ожидаемый результат: Пользователь фотографирует похожий диван. Система генерирует Image Embedding. Благодаря контексту (объект = мебель) система активирует базу Shopping (Claim 11). Поиск находит товар по схожести Embedding. Пользователь видит в выдаче прямую ссылку на покупку данного товара.

Сценарий 2: Привлечение локального трафика для ресторана

  • Задача: Привлечь посетителей, которые фотографируют фасад ресторана.
  • Действия на основе патента:
    • Оптимизация GBP: Загрузить актуальные и качественные фото фасада и интерьера в Google Business Profile.
  • Ожидаемый результат: Пользователь фотографирует фасад. Система анализирует Context Data (текущее местоположение пользователя рядом с рестораном) и активирует Specialized Database (Local Search) (Claim 11). Система находит совпадение по Image Embedding в профиле ресторана и показывает пользователю информацию о ресторане, маршрут и опции бронирования (Action Links).

Вопросы и ответы

Что такое Image Embedding в контексте этого патента и почему это важно для SEO?

Image Embedding — это числовой вектор, который представляет визуальное содержание изображения. В этом патенте он используется как универсальный ключ для поиска похожих изображений сразу в нескольких базах данных (Web, Shopping и т.д.). Для SEO это критически важно, так как сопоставление контента все больше переходит от ключевых слов к визуальной и семантической схожести, измеряемой через близость этих векторов.

Как система решает, в каких специализированных базах данных искать?

Система анализирует Context Data (Claim 11). Это включает местоположение пользователя, его историю поиска, время суток, а также классификацию объекта на фото. Если контекст указывает на коммерческий интент (например, распознан товар) или локальный поиск (например, распознано здание поблизости), система активирует соответствующие специализированные базы данных (Shopping, Local).

Влияет ли текст на странице (например, alt-текст или заголовок) на этот тип визуального поиска?

Да, влияет. Во-первых, текст помогает системе понять контекст и классифицировать изображение (создать Text Labels), что влияет на выбор баз данных. Во-вторых, в мультимодальном варианте (Claim 17) система может использовать эти Text Labels вместе с Image Embedding для поиска в специализированных базах данных, повышая точность результатов.

Что такое мультимодальный поиск, описанный в патенте?

Это подход, при котором для поиска используется более одного типа данных. В патенте описано использование комбинации Image Embedding (визуальные данные) и Text Labels или Visual Tokens (текстовые/структурные данные) (Claim 17). Например, система может использовать текстовую метку для отбора кандидатов (например, "платье"), а затем использовать Image Embedding для точного ранжирования этих платьев по визуальной схожести фасона.

Как этот патент влияет на стратегию E-commerce SEO?

Он делает присутствие в Google Shopping (через Merchant Center) еще более важным. Поскольку система параллельно ищет товары при визуальных запросах, отсутствие товара в этой Specialized Database означает потерю трафика. Также критически важным становится качество и уникальность фотографий товаров, так как они напрямую влияют на генерацию Embeddings и визуальное сопоставление.

Может ли система использовать разные алгоритмы поиска для разных баз данных?

Да, это прямо указано в патенте (Claim 17). Система может использовать чистый векторный поиск (только по Image Embedding) для одной базы данных (например, общего индекса изображений) и одновременно использовать мультимодальный поиск (Embedding + Text Labels) для другой базы данных (например, индекса товаров).

Как обеспечить, чтобы мои изображения ранжировались лучше с помощью этого механизма?

Необходимо фокусироваться на качестве и четкости изображения, чтобы Embedding Model могла точно считать визуальные признаки. Изображение должно быть релевантным контексту страницы. Также важно обеспечить наличие контента в релевантных специализированных индексах (Shopping, Local) и использовать микроразметку для помощи в генерации точных Text Labels.

Что такое Visual Tokens и как они используются?

Visual Tokens — это токенизированные представления визуальных признаков изображения. Патент описывает (Claims 6-9), что они могут использоваться в процессе поиска либо для первоначального отбора кандидатов (Retrieval), которые затем ранжируются с помощью Image Embedding, либо наоборот.

Влияет ли этот патент на локальный поиск (Local SEO)?

Да. Если пользователь фотографирует локальный объект, система может использовать его местоположение (Context Data) для активации локальной базы данных (Claim 11). Если Image Embedding запроса совпадет с фотографиями в вашем Google Business Profile, ваш бизнес будет показан в результатах. Это подчеркивает важность загрузки качественных фото в GBP.

Означает ли это, что Google использует одну и ту же модель для создания эмбеддингов для Web и Shopping?

Патент предполагает, что Embeddings из разных баз данных должны быть совместимы с Image Embedding запроса. Это подразумевает использование одной и той же модели или разных моделей, обученных для маппинга в одно общее векторное пространство, что обеспечивает возможность сравнения визуальной схожести независимо от источника контента.

Похожие патенты

Как Google использует несколько изображений в одном запросе для уточнения визуального поиска через общие атрибуты и проекции эмбеддингов
Google использует механизм поиска, принимающий на вход два или более изображения. Система анализирует их для выявления общих атрибутов (стиль, цвет, тип объекта) и генерирует векторные представления (эмбеддинги). Если изображения вводятся последовательно, система вычисляет «траекторию» интереса пользователя в векторном пространстве и проецирует поиск в этом направлении, чтобы найти результаты, соответствующие эволюционирующему визуальному интенту.
  • US12271417B2
  • 2025-04-08
  • Мультимедиа

  • Семантика и интент

Как Google объединяет изображения и текст в мультимодальном поиске для уточнения визуальных запросов
Google использует модель уточнения запросов для мультимодального поиска (например, в Google Lens). Система принимает эмбеддинг исходного изображения и текстовое уточнение от пользователя. Модель генерирует новый, уточненный эмбеддинг изображения, который объединяет визуальные данные с текстовым интентом. Этот новый эмбеддинг используется для поиска релевантных изображений в общем пространстве эмбеддингов, позволяя пользователям итеративно уточнять визуальный поиск текстом.
  • US20240370487A1
  • 2024-11-07
  • Мультимедиа

  • Семантика и интент

Как Google разбирает изображения на части для визуального поиска товаров (e.g., Google Lens)
Система Google для визуального поиска товаров, которая анализирует изображения, извлекая глобальные и локальные признаки (цвет, форма, текстура). Патент описывает, как это позволяет пользователям искать похожие товары, выделяя конкретные части объекта (например, узор на сумке или форму каблука), используя технологию, лежащую в основе Google Lens.
  • US9008435B2
  • 2015-04-14
  • Мультимедиа

  • Индексация

  • Google Shopping

Как Google распознает и связывает объекты на изображении с результатами поиска (Архитектура Google Lens)
Google использует систему параллельных поисковых движков (OCR, распознавание лиц, объектов, продуктов) для анализа визуального запроса (изображения). Система создает интерактивный документ, накладывая на исходное изображение визуальные идентификаторы (например, рамки или метки) для распознанных объектов. Эти идентификаторы служат ссылками на конкретные результаты поиска для каждого объекта.
  • US9087059B2
  • 2015-07-21
  • Мультимедиа

  • Ссылки

Как Google объединяет изображение и текст для создания мультимодальных запросов (Google Multisearch)
Google патентует интерфейс для уточнения визуального поиска. Пользователь загружает изображение, видит результаты и специальное поле для ввода текстового уточнения. Система объединяет изображение и текст в единый мультимодальный запрос (Multimodal Search Query), чтобы точнее понять намерение пользователя и предоставить релевантные результаты разных форматов, включая товары, видео и статьи.
  • US20240028638A1
  • 2024-01-25
  • Мультимедиа

  • Семантика и интент

  • SERP

Популярные патенты

Как Google извлекает сущности из активности пользователя для запуска проактивных (имплицитных) поисковых запросов
Анализ патента Google, описывающего метод идентификации «именованных сущностей» (людей, тем, фраз) путем мониторинга действий пользователя, таких как электронная почта, просмотр веб-страниц и набор текста. Система использует эти сущности для проактивного запуска фоновых поисковых запросов (имплицитных запросов), релевантных текущему контексту пользователя, часто с использованием персонализированных данных.
  • US9009153B2
  • 2015-04-14
  • Персонализация

  • Семантика и интент

  • Поведенческие сигналы

Как Google рассчитывает авторитетность и ранжирует сайты, вычисляя кратчайшие пути до доверенных источников (Seeds) в Веб-графе
Google использует масштабируемую распределенную систему для анализа огромных графов, таких как Веб-граф (триллионы связей). Система вычисляет кратчайшие пути от каждого узла (сайта) до набора предопределенных авторитетных источников («Seeds»). Эти расстояния используются для расчета метрик авторитетности и ранжирования сайтов: чем ближе сайт к доверенным источникам, тем выше его предполагаемое качество.
  • US8631094B1
  • 2014-01-14
  • EEAT и качество

  • Ссылки

Как Google автоматически определяет и отображает обратные ссылки (цитирования) между независимыми веб-страницами
Патент Google, описывающий фундаментальный механизм автоматического обнаружения ссылок между веб-страницами разных авторов. Когда система обнаруживает, что Страница B ссылается на Страницу A, она может автоматически встроить представление (например, ссылку) Страницы B в Страницу A при её показе пользователю. Это технология для построения и визуализации графа цитирований в Интернете.
  • US8032820B1
  • 2011-10-04
  • Ссылки

  • Индексация

  • Краулинг

Как Google использует историю физических перемещений пользователя для фильтрации и персонализации результатов поиска
Google может собирать и хранить историю физических перемещений пользователя (Location History). Патент описывает интерфейс, позволяющий пользователю осознанно включать свои прошлые местоположения (например, «места, где я был на прошлой неделе») в качестве фильтра для нового поискового запроса, чтобы сделать результаты более релевантными личному опыту.
  • US8874594B2
  • 2014-10-28
  • Персонализация

  • Поведенческие сигналы

  • Local SEO

Как Google использует цепочки запросов и время взаимодействия для определения и ранжирования результатов, которые действительно нужны пользователям
Google анализирует последовательности запросов пользователей (цепочки запросов) и время между кликами и последующими запросами (время взаимодействия), чтобы определить удовлетворенность пользователя. Если пользователи часто переформулируют Запрос А в Запрос Б, прежде чем найти удовлетворительный результат, Google использует эти данные, чтобы ранжировать этот удовлетворительный результат выше по исходному Запросу А и предлагать Запрос Б в качестве связанного поиска.
  • US9342600B1
  • 2016-05-17
  • Поведенческие сигналы

  • Семантика и интент

  • SERP

Как Google корректирует позиционную предвзятость (Position Bias) при обучении моделей ранжирования на кликах пользователей
Google использует механизм для устранения позиционной предвзятости (Position Bias) при обучении моделей ранжирования (Learning to Rank). Система анализирует, на какой позиции находился кликнутый результат, и присваивает этому клику вес важности. Клики по нижним позициям получают больший вес, чем клики по ТОП-1. Это позволяет модели учиться определять истинную релевантность, а не просто копировать существующий порядок выдачи.
  • US20210125108A1
  • 2021-04-29
  • Поведенческие сигналы

  • SERP

Как Google создает и наполняет Панели Знаний (Knowledge Panels), используя шаблоны сущностей и популярность фактов
Google использует систему для отображения Панелей Знаний (Knowledge Panels) рядом с результатами поиска. Когда запрос относится к конкретной сущности (человеку, месту, компании), система выбирает соответствующий шаблон и наполняет его контентом из разных источников. Выбор фактов для отображения основан на том, как часто пользователи искали эту информацию в прошлом.
  • US9268820B2
  • 2016-02-23
  • Knowledge Graph

  • SERP

  • Семантика и интент

Как Google выбирает сущность для Панели Знаний и решает, когда ее показывать, основываясь на топикальности SERP и CTR
Google использует этот механизм для решения двух задач: выбора наиболее релевантной сущности для Панели Знаний при неоднозначном запросе и определения необходимости показа самой панели. Система анализирует, насколько сущности соответствуют контенту топовых результатов поиска (Topicality Score). Показ панели активируется, если у органических результатов низкий CTR (что указывает на неудовлетворенность пользователей) или если у Google достаточно данных для ее заполнения.
  • US10922326B2
  • 2021-02-16
  • Knowledge Graph

  • SERP

  • Семантика и интент

Как Google использует паттерны просмотра пользователей (co-visitation) для определения связанности документов и улучшения поиска
Google использует систему для определения того, насколько тесно связаны два документа, основываясь на агрегированных данных о поведении пользователей. Система рассчитывает вероятность того, что пользователь просмотрит Документ B в течение определенного времени после того, как Документ А был показан ему в результатах поиска. Эти данные используются для персонализации выдачи, предложения рекомендаций и улучшения релевантности на основе контекста сессии пользователя.
  • US8447760B1
  • 2013-05-21
  • Поведенческие сигналы

  • Персонализация

  • Семантика и интент

Как Google использует исторические данные о кликах по Сущностям для ранжирования нового или редко посещаемого контента
Google решает проблему «холодного старта» для новых страниц, у которых нет собственных поведенческих данных. Система агрегирует историю кликов на уровне Сущностей (Entities). Если сущности, упомянутые на новой странице, исторически имеют высокий CTR по целевому запросу, страница получает бустинг в ранжировании, наследуя поведенческие сигналы через эти сущности.
  • US10303684B1
  • 2019-05-28
  • Поведенческие сигналы

  • Семантика и интент

  • SERP

seohardcore