SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google анализирует одежду на изображениях для визуального поиска, игнорируя лица и фон

METHOD AND APPARATUS FOR CHARACTERIZING AN IMAGE (Метод и устройство для характеризации изображения)
  • US8873838B2
  • Google LLC
  • 2013-03-14
  • 2014-10-28
  • Мультимедиа
  • Google Shopping
  • Индексация
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google использует систему для визуального поиска похожих товаров. Система обнаруживает лицо на изображении, удаляет фон и участки кожи, чтобы изолировать предмет одежды. Затем, используя размер лица для нормализации масштаба, извлекаются небольшие фрагменты текстуры. Они обрабатываются нейронной сетью для классификации узора (игнорируя цвет) и создается цветовая гистограмма. Это позволяет находить визуально похожие товары.

Описание

Какую проблему решает

Патент решает проблему неточности систем визуального поиска при анализе изображений, содержащих отвлекающие элементы. В контексте E-commerce (одежда) традиционные методы часто ошибочно учитывают фон, лицо модели или её позу вместо характеристик самого товара (узор, цвет). Изобретение направлено на точную изоляцию предмета одежды, нормализацию его масштаба и эффективную характеризацию визуальных признаков.

Что запатентовано

Запатентована система и метод характеризации изображений путем изоляции и анализа релевантного объекта (одежды). Метод включает агрессивное удаление фона, лиц и участков кожи для выделения ключевого фрагмента (clothing subsection). Критическим элементом является нормализация масштаба этого фрагмента с использованием размера обнаруженного лица как эталона. Затем система использует обучаемую сеть (например, Convolutional Neural Network) для анализа стандартизированных по размеру патчей (fixed-size patches) для генерации характеристик узора.

Как это работает

Система работает как конвейер обработки изображений:

  • Сегментация и Изоляция: Удаляется фон (например, методом Watershed). Обнаруживается лицо (например, Haar-wavelets). Анализируется тон кожи лица, и все участки кожи удаляются. Выделяется оставшийся крупнейший фрагмент (одежда).
  • Нормализация масштаба: Размер выделенного фрагмента масштабируется на основе размера лица для стандартизации.
  • Извлечение патчей: Из масштабированного фрагмента извлекается множество небольших fixed-size patches (например, 32x32 пикселя).
  • Анализ узора (Color-blind): Патчи преобразуются в оттенки серого (gray scaling) и подаются в нейронную сеть для классификации узора. Результат агрегируется в Pattern category histogram.
  • Анализ цвета: Отдельный модуль анализирует цвет фрагмента и создает Color histogram.
  • Поиск: Гистограммы используются Similarity engine для поиска визуально похожих изображений в базе данных.

Актуальность для SEO

Высокая. Визуальный поиск (Google Lens, Google Images, Product Search) является критически важным компонентом поиска, особенно для E-commerce. Описанные методы, включая использование сверточных нейронных сетей (CNN), анализ патчей и продвинутое извлечение признаков, лежат в основе современных систем компьютерного зрения, используемых Google для понимания содержания изображений товаров.

Важность для SEO

Влияние на SEO значительно (8/10), но специфично для Image SEO и E-commerce. Патент описывает конкретный механизм, который Google может использовать для определения визуального сходства товаров. Он подчеркивает, что система активно пытается игнорировать модель и фон, фокусируясь исключительно на узоре и цвете самого продукта. Это напрямую влияет на то, как должны быть оптимизированы изображения товаров для максимальной видимости в визуальном поиске.

Детальный разбор

Термины и определения

Clothing Subsection / Extracted Subsection (Подраздел одежды / Извлеченный подраздел)
Часть изображения, которая остается после удаления лица, фона и участков кожи. Представляет собой изолированный предмет одежды.
Color Histogram (Цветовая гистограмма)
Характеристика, представляющая распределение цветов в выделенном фрагменте. Генерируется модулем Color analysis module.
Convolutional Neural Network (CNN) (Сверточная нейронная сеть)
Тип нейронной сети, используемый для распознавания узоров. Состоит из сверточных слоев, нелинейных слоев (Tanh) и слоев субдискретизации (Max-pooling).
Fixed Size Patch (Патч фиксированного размера)
Небольшой фрагмент (например, 32x32 пикселя), извлекаемый из Clothing Subsection для анализа нейронной сетью.
Haar-wavelets (Вейвлеты Хаара)
Упомянутый метод для обнаружения объектов, в данном случае — лиц.
Learning Network (Обучаемая сеть)
Система машинного обучения (CNN, MLP), обученная классифицировать входные патчи по категориям узоров.
LSH (Locality Sensitive Hashing)
Метод хеширования, упоминаемый как эффективный способ для быстрого сравнения гистограмм в Similarity Engine.
Max-pooling (Максимальный пулинг)
Техника в CNN для уменьшения размерности данных путем выбора максимального значения в заданной области.
Pattern Category Histogram / Feature Record (Гистограмма категорий узоров / Запись признаков)
Выходные данные нейронной сети, характеризующие узор (например, полосы, цветы). Вектор чисел, указывающих на степень присутствия каждой категории.
Similarity Engine (Система оценки сходства)
Компонент, который сравнивает гистограммы (узора и цвета) исходного изображения с базой данных для поиска совпадений.
Watershed method (Метод водораздела)
Упомянутый алгоритм сегментации изображений, используемый для удаления фона.

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает основной процесс характеризации изображения и поиска похожих изображений одежды.

  1. Поддержание данных характеризации (characterization data) для множества изображений, включая feature record с категориями узоров (pattern categories).
  2. Получение запроса с входным изображением.
  3. Генерация characterization data для входного изображения, включающая строгую последовательность шагов:
    1. Идентификация лица на изображении.
    2. Извлечение фрагмента одежды (clothing subsection). Этот шаг требует удаления фона, удаления лица И удаления других участков кожи.
    3. Определение размера лица.
    4. Масштабирование (rescaling) фрагмента одежды на основе размера лица (Нормализация масштаба).
    5. Извлечение одного или нескольких патчей фиксированного размера (fixed size patches).
    6. Преобразование в оттенки серого (gray scaling) патчей (удаление цвета).
    7. Обработка ТОЛЬКО патчей в оттенках серого с помощью learning network для генерации feature record (характеристики узора).
  4. Выбор похожих изображений на основе сравнения данных характеризации.
  5. Предоставление похожих изображений пользователю.

Ядром изобретения является специфический конвейер нормализации и характеризации. Ключевые моменты: использование размера лица для стандартизации масштаба, агрессивная сегментация для изоляции одежды и использование специализированной нейронной сети, которая анализирует узор независимо от цвета (color-blind pattern recognition).

Claims 17-18 (Зависимые): Уточняют, что система также генерирует Color Histogram, и поиск учитывает как узор, так и цвет.

Claims 19-20 (Зависимые): Уточняют, что система может определять расстояние между лицом и одеждой (face to clothing distance) и использовать это при выборе похожих изображений (позволяет классифицировать тип одежды).

Где и как применяется

Патент описывает инфраструктуру системы визуального поиска (например, Google Lens, Google Images), затрагивающую этапы индексирования и ранжирования.

INDEXING – Индексирование и извлечение признаков
Это основной этап применения. Когда система индексирует изображения (из фидов товаров или веба), она применяет описанный конвейер. Происходит обнаружение лиц, сегментация, масштабирование, обработка CNN и анализ цвета. Полученные Pattern category histogram и Color histogram сохраняются в базе данных (Image Database) как метаданные (characterization data).

RANKING – Ранжирование (Retrieval)
Когда пользователь выполняет визуальный поиск, входное изображение проходит через тот же конвейер извлечения признаков в реальном времени. Полученные гистограммы затем используются Similarity engine для быстрого поиска (Retrieval) и ранжирования предварительно обработанных изображений из индекса, которые имеют схожие характеристики.

Входные данные:

  • Изображение (например, каталожная фотография товара).

Выходные данные:

  • Pattern category histogram (Feature record).
  • Color histogram.
  • Опционально: класс одежды (на основе face to clothing distance), возраст/пол модели.

На что влияет

  • Конкретные типы контента: Изображения, содержащие людей в одежде — каталожные фото, фотографии модных товаров.
  • Конкретные ниши или тематики: E-commerce, мода, розничная торговля.
  • Определенные форматы: Результаты визуального поиска в Google Images, Google Lens, Google Shopping (блоки "похожие товары").

Когда применяется

  • Триггеры активации: Алгоритм, описанный в Claim 1, активируется при обнаружении лица на изображении. Наличие лица необходимо для нормализации масштаба и определения тона кожи.
  • Исключения: В описании патента (не в Claims) упоминается альтернативный метод (S112-S118), если лицо не обнаружено, основанный на обнаружении краев, но он считается менее точным.

Пошаговый алгоритм

Процесс обработки изображения (Индексирование или Запрос)

  1. Получение изображения и Сегментация:
    1. Применение маски для удаления фона (например, Watershed method).
    2. Обнаружение лиц (например, Haar-wavelets).
  2. Анализ тона кожи (если лицо найдено):
    1. Определение диапазона тонов кожи на основе пикселей лица (например, кластеризация в HSV).
    2. Создание маски тона кожи для удаления других открытых участков тела (руки, ноги).
    3. Фильтрация (медианный фильтр) для очистки маски от "пятен" на одежде.
  3. Извлечение фрагмента (Subsection Extraction): Идентификация самого большого оставшегося сегмента (предполагается, что это одежда).
  4. Нормализация масштаба (Rescaling):
    1. Определение размера обнаруженного лица.
    2. Масштабирование извлеченного фрагмента одежды на основе размера лица.
  5. Извлечение признаков узора (Pattern Feature Extraction):
    1. Извлечение множества патчей фиксированного размера (например, 32x32) из масштабированного фрагмента.
    2. Преобразование патчей в оттенки серого (Gray scaling).
    3. Ввод патчей в обучаемую сеть (CNN).
    4. Агрегация выходных данных в Pattern Category Histogram.
  6. Извлечение признаков цвета (Color Feature Extraction): Ввод цветного фрагмента в Color Analysis Module для генерации Color Histogram.
  7. Поиск сходства (при поиске): Сравнение гистограмм с базой данных с помощью Similarity Engine (например, используя LSH).

Какие данные и как использует

Данные на входе

Система использует исключительно данные, содержащиеся в самом изображении.

  • Мультимедиа факторы: Пиксельные данные изображения. Система анализирует значения пикселей в различных цветовых пространствах:
    • RGB/HSV: Используется для удаления фона, обнаружения кожи (упоминается анализ в пространстве HSV и кластеризация k-means) и генерации Color Histogram.
    • Grayscale/YUV: Изображение преобразуется в оттенки серого (упоминается использование компонента Y в YUV) перед подачей в нейронную сеть для анализа узора.

Какие метрики используются и как они считаются

  • Размер лица: Вычисляется в процессе обнаружения лиц и используется как коэффициент нормализации для масштабирования.
  • Кластеры тонов кожи: Определяются с помощью алгоритма k-means в пространстве HSV для идентификации и удаления участков кожи.
  • Mean Color Distance (MCD): Метрика, используемая в анализе тонов кожи для определения вариативности цвета внутри кластера.
  • Pattern Category Histogram: Вектор (например, из 22 чисел, согласно примеру в патенте), где каждое число представляет степень выраженности определенной категории узора. Сумма чисел обычно равна единице.
  • Color Histogram: Табличное представление частоты встречаемости различных цветов во фрагменте.
  • Face to Clothing Distance: Расстояние между лицом и фрагментом одежды, используемое для классификации типа одежды (Claim 19).
  • Алгоритмы машинного обучения: Использование Сверточных нейронных сетей (CNN) для анализа узоров и Многослойных персептронов (MLP) для классификации.

Выводы

  1. Приоритет продукта над окружением: Патент демонстрирует, что для визуального поиска товаров Google активно изолирует сам продукт (одежду), игнорируя нерелевантные элементы: модель (лицо, кожу) и фон.
  2. Нормализация масштаба по лицу: Система использует размер лица как эталон для стандартизации масштаба анализируемого объекта. Это позволяет сравнивать узоры (например, ширину полос) на фотографиях, сделанных с разного расстояния.
  3. Разделение анализа узора и цвета: Критически важный вывод — анализ узора выполняется нейронной сетью на основе патчей в оттенках серого (grayscaled patches). Анализ цвета выполняется отдельно. Система распознавания узоров является "цветонезависимой" (color-blind).
  4. Анализ на основе патчей: Система не анализирует изображение целиком. Она строит общую характеристику на основе анализа множества небольших фрагментов фиксированного размера (fixed-size patches), что делает анализ устойчивым к складкам и позам.
  5. Значение для E-commerce Image SEO: Этот патент описывает фундаментальный подход к визуальному сходству в E-commerce, определяя ключевые визуальные признаки (узор и цвет), используемые для ранжирования в визуальном поиске.

Практика

Best practices (это мы делаем)

  • Использование моделей для контекста и масштаба: Описанный метод использует обнаружение лица для нормализации масштаба и точной сегментации. Наличие модели на фото помогает работе именно этого алгоритма, поэтому для одежды предпочтительны фотографии с моделями, где лицо четко видно.
  • Четкие изображения продукта и текстур: Обеспечьте, чтобы узор, текстура и цвет изделия были ясно видны. Система полагается на извлечение чистых, репрезентативных патчей (patches). Узоры должны быть достаточно четкими, чтобы даже небольшой патч (32x32 пикселя) был репрезентативным.
  • Контраст с фоном: Используйте фон, который контрастирует с цветом продукта. Хотя система пытается удалить фон (Watershed method), чистый контраст облегчает точную сегментацию и изоляцию clothing subsection.
  • Точная цветопередача: Поскольку Color Histogram является отдельным фактором для поиска, цвета на фотографии должны точно соответствовать реальному товару.

Worst practices (это делать не надо)

  • Затенение или перекрытие продукта: Изображения, где основной узор сильно затенен или перекрыт реквизитом, будут менее эффективны, так как система не сможет извлечь качественные патчи.
  • Отсутствие лица или его обрезание (для одежды): Если лицо обрезано или скрыто, система не сможет применить точную нормализацию масштаба и определение кожи, описанные в Claim 1.
  • Сложные и "шумные" фоны: Очень сложные фоны или фоны, цвет которых совпадает с цветом продукта, могут затруднить процесс сегментации и привести к ошибкам в изоляции объекта.
  • Низкое качество изображений: Изображения низкого разрешения могут привести к тому, что fixed-size patches будут содержать артефакты сжатия, а не реальный узор, что ухудшит характеризацию.

Стратегическое значение

Патент подтверждает, что для SEO изображений в E-commerce визуальные характеристики (узор, цвет) являются основными факторами для определения сходства в системах визуального поиска (Google Lens). Он подчеркивает важность оптимизации под машинное зрение. Стратегия должна фокусироваться на том, чтобы помочь Google легко изолировать и проанализировать сам товар на фотографии.

Практические примеры

Сценарий: Оптимизация изображения полосатого платья для визуального поиска

  1. Действие: Загрузить фотографию высокого разрешения, на которой модель носит платье. Фотография сделана на простом фоне. Лицо модели четко видно. Полосы на платье находятся в фокусе.
  2. Обработка системой (согласно патенту): Google обнаруживает лицо модели. Система удаляет фон и кожу модели, изолируя платье. Используя размер лица, система масштабирует изображение платья до стандартного размера (нормализация). Извлекаются сотни маленьких черно-белых патчей полос. CNN обрабатывает их и классифицирует узор как "полосатый". Отдельно анализируются цвета платья.
  3. Ожидаемый результат: Платье будет появляться в результатах визуального поиска по запросам о похожих полосатых товарах того же цвета, независимо от того, кто является моделью или какой был фон на исходном фото.

Вопросы и ответы

Означает ли этот патент, что Google игнорирует лицо модели при поиске изображений?

И да, и нет. Система активно использует лицо для двух целей: для определения тона кожи (чтобы удалить остальные части тела) и для нормализации масштаба изображения. Однако после этого само лицо и личность модели игнорируются при анализе узора и цвета одежды. Цель состоит в том, чтобы найти похожую одежду, а не похожего человека.

Как Google стандартизирует масштаб изображений, сделанных с разного расстояния?

Патент описывает конкретный метод нормализации масштаба для фотографий с людьми. Система определяет размер лица на изображении и использует его как эталон. Затем фрагмент одежды (clothing subsection) масштабируется пропорционально этому размеру. Это гарантирует, что анализируемые фрагменты (patches) имеют одинаковый физический масштаб, независимо от кадрирования фото.

Что лучше для Image SEO: использовать фотографии с моделями или только продукт (flat lay)?

Описанный в патенте (Claim 1) метод специально разработан для обработки изображений с моделями и полагается на обнаружение лица. Наличие модели помогает системе понять масштаб и лучше изолировать одежду. Поэтому для работы именно этого алгоритма предпочтительны фотографии с моделями. Рекомендуется использовать оба типа фотографий в карточке товара, так как Google использует множество алгоритмов.

Имеет ли значение фон изображения для Image SEO согласно этому патенту?

Да, имеет. Хотя патент описывает методы удаления фона (например, Watershed method), сложный или шумный фон может затруднить точную сегментацию и изоляцию предмета одежды. Для наилучших результатов рекомендуется использовать чистый, контрастный фон, который облегчает системе задачу изоляции продукта.

Как анализируются узор и цвет? Это один процесс?

Нет, это два отдельных процесса. Анализ узора выполняется сверточной нейронной сетью (CNN), которая обрабатывает небольшие патчи, преобразованные в оттенки серого (grayscaled). Анализ цвета выполняется отдельно модулем Color Analysis Module, который создает Color Histogram. Это позволяет системе находить совпадения как по узору, так и по цвету независимо.

Что такое "Патч" (Patch) и почему Google его использует?

Patch — это небольшой фрагмент изображения фиксированного размера (например, 32x32 пикселя). Использование множества таких патчей вместо анализа всего изображения позволяет нейронной сети эффективнее обучаться распознаванию текстур и узоров, независимо от формы одежды или позы модели. Это также увеличивает объем обучающих данных.

Какой тип нейронной сети описан в патенте?

Описана сверточная нейронная сеть (Convolutional Neural Network, CNN). Архитектура включает несколько сверточных слоев для выделения признаков (фильтры), слои нелинейности (tanh) для повышения обучаемости и слои пулинга (max-pooling) для уменьшения размерности. Финальные слои представляют собой многослойный персептрон (MLP) для классификации.

Что произойдет, если на фото нет лица?

Основной метод (Claim 1) требует наличия лица. Если лицо не обнаружено, в описании патента упоминается альтернативный, менее точный метод (S112-S118). Он полагается на обнаружение краев и поиск самой большой области с однородным цветом и узором. Нормализация масштаба по лицу в этом случае не производится.

Насколько детализированной должна быть текстура изображения?

Текстура должна быть достаточно четкой, чтобы при извлечении небольшого фрагмента (fixed-size patch, например 32x32 пикселя) узор был различим. Изображения очень низкого разрешения или с сильными артефактами сжатия могут привести к неточной классификации узора нейронной сетью.

Может ли эта система определить тип одежды (например, юбка или футболка)?

Да. В патенте (Claims 19-20 и описание S308) упоминается определение класса одежды на основе расстояния и расположения лица относительно извлеченного фрагмента (face to clothing distance). Например, если фрагмент находится близко к лицу, это, вероятно, верхняя часть одежды. Эта информация может использоваться как фильтр при поиске.

Похожие патенты

Как Google разбирает изображения на части для визуального поиска товаров (e.g., Google Lens)
Система Google для визуального поиска товаров, которая анализирует изображения, извлекая глобальные и локальные признаки (цвет, форма, текстура). Патент описывает, как это позволяет пользователям искать похожие товары, выделяя конкретные части объекта (например, узор на сумке или форму каблука), используя технологию, лежащую в основе Google Lens.
  • US9008435B2
  • 2015-04-14
  • Мультимедиа

  • Индексация

  • Google Shopping

Как Google использует компьютерное зрение для анализа, сегментации и визуального поиска товаров в E-commerce
Патент описывает комплексную систему Google для визуального поиска товаров. Система автоматически обрабатывает изображения: отделяет объект от фона (сегментация), выравнивает его, извлекает визуальные признаки (цвет, форма, текстура) и создает цифровые подписи (векторы). Это позволяет пользователям искать похожие товары, используя изображение в качестве запроса (CBIR), уточнять поиск по визуальным характеристикам и находить товары на сторонних сайтах.
  • US8732030B2
  • 2014-05-20
  • Индексация

  • Мультимедиа

Как Google использует query-specific модели для переранжирования изображений на основе их визуальных характеристик в реальном времени
Google использует систему для корректировки ранжирования изображений непосредственно в момент запроса (онлайн). Для популярных запросов система заранее обучает индивидуальные модели релевантности на основе исторических данных о кликах. При получении нового запроса система активирует наиболее подходящую модель и использует визуальные характеристики (цвет, текстура) для переоценки и переранжирования результатов, обеспечивая точное соответствие визуального контента интенту пользователя.
  • US10311096B2
  • 2019-06-04
  • Мультимедиа

  • SERP

  • Поведенческие сигналы

Как Google комбинирует визуальное сходство и семантические метки для улучшения поиска по картинке (Visual Search)
Google использует систему поиска по изображению, которая сочетает анализ визуальных характеристик и семантических меток. Система генерирует высокоточные метки (High Confidence Labels) для изображения, анализируя текст, связанный с визуально похожими картинками в интернете. Затем она ранжирует кандидатов, используя модель визуального сходства, обученную на основе человеческих оценок, и применяет правила фильтрации для обеспечения однородности результатов.
  • US8429173B1
  • 2013-04-23
  • Семантика и интент

  • Мультимедиа

  • SERP

Как Google распознает и связывает объекты на изображении с результатами поиска (Архитектура Google Lens)
Google использует систему параллельных поисковых движков (OCR, распознавание лиц, объектов, продуктов) для анализа визуального запроса (изображения). Система создает интерактивный документ, накладывая на исходное изображение визуальные идентификаторы (например, рамки или метки) для распознанных объектов. Эти идентификаторы служат ссылками на конкретные результаты поиска для каждого объекта.
  • US9087059B2
  • 2015-07-21
  • Мультимедиа

  • Ссылки

Популярные патенты

Как Google автоматически определяет важность различных частей веб-страницы (DOM-узлов) для ранжирования
Google анализирует коллекции похожих структурированных документов (например, товарных карточек) и создает общую модель (DOM). Затем система изучает логи запросов и кликов, чтобы понять, какие части структуры (заголовки, основной контент, реклама) чаще всего содержат ключевые слова из успешных запросов. Этим частям присваивается больший вес при расчете релевантности.
  • US8538989B1
  • 2013-09-17
  • Семантика и интент

  • Индексация

  • Структура сайта

Как Google определяет, когда показывать обогащенный результат для сущности, и использует консенсус веба для исправления данных
Google использует механизм для определения того, когда запрос явно относится к конкретной сущности (например, книге). Если один результат значительно доминирует над другими по релевантности, система активирует «обогащенный результат». Этот результат агрегирует данные из разных источников (структурированные данные, веб-страницы, каталоги товаров) и использует наиболее популярные варианты данных из интернета для проверки и исправления информации о сущности.
  • US8577897B2
  • 2013-11-05
  • SERP

  • Семантика и интент

  • EEAT и качество

Как Google использует историю запросов, сделанных на Картах, для ранжирования локальных результатов и рекламы
Google анализирует, что пользователи ищут, когда просматривают определенную географическую область на карте (Viewport). Эта агрегированная история запросов используется для определения популярности локальных бизнесов и контента в этом конкретном районе. Результаты, которые часто запрашивались в этой области, особенно недавно, получают значительное повышение в ранжировании.
  • US9129029B1
  • 2015-09-08
  • Local SEO

  • Поведенческие сигналы

  • Свежесть контента

Как Google планировал использовать социальные связи, сети доверия и экспертизу для персонализации и переранжирования поисковой выдачи
Google запатентовал метод использования данных из социальных сетей («member networks») для влияния на ранжирование. Пользователи могли явно одобрять («endorse») результаты поиска. Эти одобрения показывались другим связанным пользователям (друзьям или людям, ищущим экспертное мнение) и использовались для переранжирования выдачи, добавляя персонализированный слой доверия.
  • US8825639B2
  • 2014-09-02
  • Персонализация

  • EEAT и качество

  • Поведенческие сигналы

Как Google использует контекст пользователя и интерактивное уточнение для обучения моделей поиска
Google может инициировать поиск пассивно, основываясь на контексте действий пользователя (например, чтении статьи или телефонном звонке). Система позволяет пользователю уточнить этот поиск, выбрав один из использованных критериев (например, тапнув на сущность в тексте), чтобы повысить его значимость. Реакция пользователя на уточненные результаты используется для машинного обучения и улучшения взвешивания критериев в будущих поисковых запросах.
  • US11568003B2
  • 2023-01-31
  • Семантика и интент

  • Персонализация

  • Поведенческие сигналы

Как Google использует визуальные цитаты и обратную связь для генерации и уточнения ответов в мультимодальном поиске
Google генерирует ответы на мультимодальные запросы (изображение + текст), находя визуально похожие изображения в интернете и используя текст с их исходных страниц как основу для LLM. Система показывает эти изображения как «визуальные цитаты» для подтверждения ответа и позволяет пользователям исключать нерелевантные источники, чтобы мгновенно уточнить сгенерированный результат.
  • US20240378236A1
  • 2024-11-14
  • Мультимедиа

  • EEAT и качество

  • Ссылки

Как Google использует пользовательский контент (UGC) и историю поиска для сбора структурированных отзывов
Google анализирует пользовательский контент (фотографии, посты, метаданные) и историю поиска, чтобы определить, с какими объектами (места, продукты, услуги) взаимодействовал пользователь. Система проактивно предлагает оставить структурированный отзыв, используя шаблон, который может быть предварительно заполнен на основе тональности исходного UGC. Это направлено на увеличение объема и подлинности отзывов.
  • US20190278836A1
  • 2019-09-12
  • Семантика и интент

  • Персонализация

  • EEAT и качество

Как Google использует всплески поискового интереса и анализ новостей для обновления Графа Знаний в реальном времени
Google отслеживает аномальный рост запросов о сущностях (людях, компаниях) как индикатор реального события. Система анализирует свежие документы, опубликованные в этот период, извлекая факты в формате Субъект-Глагол-Объект (SVO). Эти факты используются для оперативного обновления Графа Знаний или добавления блока «Недавно» в поисковую выдачу.
  • US9235653B2
  • 2016-01-12
  • Knowledge Graph

  • Свежесть контента

  • Семантика и интент

Как Google определяет язык и языковую релевантность страницы, анализируя контекст входящих и исходящих ссылок
Google использует контекст входящих и исходящих ссылок для определения языковой релевантности ресурса. Система анализирует язык анкоров, URL, контент ссылающихся и целевых страниц, а также качество ссылок и тип страницы (например, «языковой шлюз»). Это позволяет точно идентифицировать релевантные языки, даже если на самой странице мало текста.
  • US9098582B1
  • 2015-08-04
  • Ссылки

  • Мультиязычность

  • Семантика и интент

Как Google использует клики по изображениям для определения схожести запросов и картинок (Поведенческая схожесть)
Google анализирует поведение пользователей в поиске по картинкам, чтобы определить схожесть двух запросов (или двух изображений). Если пользователи часто кликают на одни и те же изображения в ответ на разные запросы, эти запросы считаются похожими. Этот механизм (Коллаборативная фильтрация) позволяет находить связи независимо от языка или типа запроса (текст/изображение) и используется для генерации рекомендаций.
  • US8280881B1
  • 2012-10-02
  • Поведенческие сигналы

  • Семантика и интент

  • Мультимедиа

seohardcore