SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google использует выделение деталей на изображении для уточнения визуального поиска и комбинирования результатов

VISUAL SEARCH VIA FREE-FORM VISUAL FEATURE SELECTION (Визуальный поиск через произвольный выбор визуальных признаков)
  • US12072925B2
  • Google LLC
  • 2022-03-18
  • 2024-08-27
  • Семантика и интент
  • Мультимедиа
  • SERP
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google использует технологию, позволяющую пользователям уточнять визуальные запросы путем произвольного выделения конкретных деталей на изображении (например, обводя или закрашивая элемент). Система интерпретирует это действие для понимания истинного намерения пользователя. Используя визуальные эмбеддинги, система находит результаты, релевантные как выделенному признаку, так и объекту в целом, и предоставляет комбинированную выдачу, сохраняя контекст исходного запроса.

Описание

Какую проблему решает

Патент решает проблему неоднозначности пользовательского намерения (интента) в визуальном поиске. Когда пользователь отправляет изображение в качестве запроса, неясно, интересует ли его объект целиком или конкретный визуальный признак (например, узор ткани, форма детали, цвет). Существующие системы часто фокусируются на общем визуальном сходстве (holistically similar visual characteristics), что может не соответствовать истинному интересу пользователя. Изобретение позволяет точно определить гранулярность запроса и сфокусировать поиск на конкретных деталях, интересующих пользователя.

Что запатентовано

Запатентована система и метод для уточнения визуального поиска посредством произвольного пользовательского ввода (free-form user input). Пользователь может выделить определенную часть (particular sub-portion) изображения (например, обвести, выделить цветом или выбрать пиксели). Система использует этот ввод для фокусировки поиска на конкретных визуальных признаках. Ключевым элементом является способность системы комбинировать результаты, относящиеся как к объекту в целом (object overall), так и к выделенной части, используя visual embeddings.

Как это работает

Механизм работает следующим образом:

  • Отображение и Ввод: Изображение отображается в интерфейсе. Пользователь использует произвольный ввод (например, рисует петлю или выделяет область), чтобы указать интересующую его часть объекта.
  • Формирование запроса: Система создает уточненный визуальный запрос на основе выделенной части.
  • Двойной Поиск: Система использует visual embeddings для идентификации двух наборов результатов: (1) связанных с объектом в целом и (2) связанных с выделенной частью.
  • Комбинирование и Ранжирование: Система формирует комбинированный набор контента (combined set of content) из этих двух наборов. Ранжирование может гибко приоритизировать либо общее сходство, либо сходство деталей.
  • Выдача: Пользователю предоставляются результаты, релевантные как контексту, так и специфическому интересу.

Актуальность для SEO

Критически высокая. Патент опубликован в 2024 году и описывает базовые технологии для функций интерактивного визуального поиска, таких как Google Lens и "Circle to Search". Понимание гранулярного визуального интента является ключевым направлением развития поисковых технологий, особенно в e-commerce.

Важность для SEO

Патент имеет высокое значение (85/100) для SEO, особенно в E-commerce и визуально-ориентированных нишах. Он демонстрирует способность Google интерпретировать запросы на уровне отдельных визуальных признаков (стиль, узор, форма), а не только объекта целиком. Это требует от SEO-специалистов нового уровня оптимизации изображений, гарантируя, что ключевые характеристики и детали продуктов четко различимы и могут быть корректно интерпретированы моделями машинного зрения (visual embeddings) при гранулярном запросе.

Детальный разбор

Термины и определения

Free-form user input (Произвольный пользовательский ввод)
Способ взаимодействия пользователя с интерфейсом для выбора части изображения. Включает рисование петли (line drawn in a loop), выделение полупрозрачным цветом (swathe of translucent color) или выбор подмножества пикселей (subset of pixels).
Particular sub-portion (Конкретная часть)
Часть объекта на изображении, выбранная пользователем. Содержит интересующие визуальные признаки (visual features).
Visual Embeddings (Визуальные эмбеддинги)
Векторные представления визуальных характеристик изображений или их частей. Используются для оценки сходства и идентификации результатов как на уровне объекта в целом, так и на уровне его отдельных частей.
Object overall (Объект в целом)
Целостное представление или категория объекта на изображении (например, «платье»).
Combined set of content (Комбинированный набор контента)
Итоговый набор результатов поиска, сформированный путем объединения результатов, связанных с object overall, и результатов, связанных с particular sub-portion.
Input mode toggle (Переключатель режима ввода)
Элемент интерфейса, позволяющий переключиться с автоматических предложений системы на режим произвольного выбора (free-form user selection mode).

Ключевые утверждения (Анализ Claims)

Патент содержит несколько ключевых независимых пунктов, описывающих разные аспекты изобретения.

Claim 1 (Независимый пункт): Описывает базовый метод взаимодействия.

  1. Система отображает изображение.
  2. Система получает free-form user input, выбирающий particular sub-portion объекта. В этом пункте ввод конкретизирован как "линия, нарисованная в виде петли вокруг конкретной части объекта тактильным объектом".
  3. Система отправляет визуальный запрос, содержащий эту выбранную часть.
  4. Система получает и предоставляет результаты, релевантные визуальным признакам этой части.

Claim 21 (Независимый пункт): Описывает продвинутый метод выбора части изображения.

  1. Система отображает изображение.
  2. Система получает free-form user input в виде выбора подмножества пикселей. Ключевое уточнение: это подмножество включает как минимум две группы выбранных пикселей, которые отделены друг от друга и не являются смежными (non-adjacent). Это позволяет выбирать несколько несвязанных элементов одновременно (например, узор на воротнике и узор на подоле).
  3. Система отправляет визуальный запрос на основе этой выборки и предоставляет результаты.

Claim 10 (Независимый пункт): Описывает критически важный механизм обработки запроса и сохранения контекста.

  1. Система получает визуальный запрос с выделенной пользователем частью объекта.
  2. Система обращается к visual embeddings кандидатов, чтобы идентифицировать:
    • Первый набор результатов, связанных с объектом в целом (object overall).
    • Второй набор результатов, связанных с выделенной частью (particular sub-portion).
  3. Система выбирает combined set of content, включающий результаты из обоих наборов.
  4. Система возвращает этот комбинированный набор.

Claim 12 и 13 (Зависимые от 10): Детализируют гибкость ранжирования комбинированного набора.

  • Claim 12: Ранжирование происходит сначала по сходству с объектом в целом, а затем по сходству с выделенной частью (Приоритет контекста).
  • Claim 13: Ранжирование происходит сначала по сходству с выделенной частью, а затем по сходству с объектом в целом (Приоритет детали).

Где и как применяется

Изобретение применяется в системах визуального поиска (например, Google Lens, Google Images) и затрагивает несколько этапов поисковой архитектуры.

INDEXING – Индексирование и извлечение признаков
На этом этапе система должна предварительно вычислить и сохранить visual embeddings для изображений в индексе. Критически важно, что эти эмбеддинги должны характеризовать как объект в целом (object overall), так и его различные визуальные признаки или части, чтобы обеспечить возможность гранулярного поиска.

QUNDERSTANDING – Понимание Запросов
Ключевой этап применения. Система интерпретирует сложный ввод, состоящий из изображения и данных о free-form user input (например, координат обводки или маски пикселей). Происходит трансформация сырого ввода в структурированное намерение, определяя фокус поиска (particular sub-portion) и контекст (object overall).

RANKING – Ранжирование (Retrieval)
На этапе отбора кандидатов система реализует механизм из Claim 10. Она выполняет поиск (вероятно, в пространстве visual embeddings) для идентификации Первого и Второго наборов результатов.

RERANKING – Переранжирование / METASEARCH – Смешивание
На этом этапе система формирует combined set of content из двух наборов. Происходит финальное ранжирование с использованием гибких приоритетов (Claims 12 и 13) или взвешенного среднего.

Входные данные:

  • Исходное изображение (запрос).
  • Данные free-form user input (координаты петли, маска выделения, выбранные пиксели).
  • База данных visual embeddings кандидатов.

Выходные данные:

  • Combined set of content – ранжированный список визуальных результатов поиска.

На что влияет

  • Конкретные типы контента: Наибольшее влияние на контент, где визуальные атрибуты играют ключевую роль: товары (одежда, мебель, декор), искусство, дизайн. Особенно актуально для страниц товаров (PDP) в e-commerce.
  • Специфические запросы: Влияет на уточняющие визуальные запросы, где пользователь ищет не точное совпадение, а похожий стиль, паттерн или элемент.
  • Конкретные ниши или тематики: E-commerce (Fashion, Home & Garden), дизайн интерьеров.

Когда применяется

  • Триггеры активации: Когда пользователь инициирует визуальный поиск И использует функцию произвольного выбора (free-form selection) для уточнения запроса (например, обводит элемент на экране).
  • Условия работы: Система может сначала предложить автоматически распознанные признаки (initial visual feature suggestions), но позволяет пользователю переключиться в режим свободного выбора (Claim 22).

Пошаговый алгоритм

Процесс А: Обработка взаимодействия пользователя

  1. Отображение: Предоставление изображения в пользовательском интерфейсе.
  2. Инициализация (Опционально): Предложение начальных визуальных признаков. Пользователь может активировать переключатель режима для перехода к свободному выбору.
  3. Получение ввода: Получение free-form user input (петля, выделение цветом или выбор несмежных групп пикселей), который определяет particular sub-portion объекта.
  4. Формирование запроса: Создание визуального поискового запроса, который включает данные о выбранной части объекта.

Процесс Б: Обработка запроса в поисковой системе (Комбинированный поиск)

  1. Получение запроса: Получение уточненного визуального запроса (результат Процесса А).
  2. Доступ к эмбеддингам (Двойной поиск): Доступ к visual embeddings кандидатов для идентификации:
    • Первого набора результатов (связанных с object overall).
    • Второго набора результатов (связанных с particular sub-portion).
  3. Выбор комбинированного набора: Выбор combined set of content, включающего результаты из обоих наборов (например, поиск пересечения или комбинирование оценок сходства).
  4. Ранжирование: Ранжирование комбинированного набора. Приоритет может отдаваться либо Первому набору (Claim 12), либо Второму набору (Claim 13), либо использоваться взвешенное среднее.
  5. Возврат результатов: Возвращение комбинированного набора пользователю.

Какие данные и как использует

Данные на входе

Патент фокусируется на обработке визуальных данных и взаимодействии пользователя.

  • Мультимедиа факторы (Изображения): Исходное изображение запроса и изображения-кандидаты. Анализируются визуальные признаки (цвет, форма, паттерн, текстура).
  • Пользовательские факторы (Взаимодействие): Free-form user input (данные о взаимодействии с интерфейсом – касания, свайпы, координаты выделения).
  • Системные данные (Машинное обучение): Предварительно вычисленные visual embeddings для изображений в индексе.

Какие метрики используются и как они считаются

  • Сходство визуальных эмбеддингов: Основная метрика для поиска результатов. Система вычисляет сходство между эмбеддингами запроса и эмбеддингами кандидатов. Используются два типа сходства:
    • Сходство с object overall.
    • Сходство с particular sub-portion.
  • Ранжирование комбинированного набора: Система использует метрики сходства для финального ранжирования. Патент явно указывает на возможность различной приоритизации (последовательное ранжирование по одному признаку, затем по другому) или взвешивания. В описании патента упоминается возможность использования среднего значения сходства (average), которое может быть взвешено в пользу общего объекта или выделенной части.

Выводы

  1. Гранулярность визуального поиска: Google развивает способность понимать визуальные запросы не только на уровне целых объектов, но и на уровне их конкретных визуальных признаков и деталей. Это позволяет системе точнее интерпретировать сложный визуальный интент.
  2. Сохранение контекста критически важно (Claim 10): Ключевым механизмом является не просто поиск по выделенной детали, а комбинирование результатов по детали (particular sub-portion) и по объекту в целом (object overall). Система стремится найти баланс (например, найти "платье с такими рукавами", а не просто "такие рукава").
  3. Гибкость ранжирования (Claims 12, 13): Система может динамически изменять приоритеты ранжирования, решая, что важнее в конкретном запросе — общий тип объекта или конкретный выделенный признак.
  4. Поддержка сложных запросов (Claim 21): Возможность выбора нескольких несмежных областей (non-adjacent pixels) указывает на высокую сложность системы. Она может обрабатывать запросы, включающие комбинацию признаков, расположенных в разных частях изображения.
  5. Зависимость от Visual Embeddings: Эффективность этого метода напрямую зависит от качества и детализации Visual Embeddings, которые Google рассчитывает на этапе индексирования. Это подчеркивает важность того, как модели машинного обучения интерпретируют визуальный контент.

Практика

Best practices (это мы делаем)

  • Обеспечение четкости визуальных признаков: Изображения товаров должны быть высокого качества, с хорошим освещением и контрастом, чтобы ключевые детали (узоры, текстуры, фурнитура, элементы дизайна) были четко различимы. Это поможет системам машинного зрения корректно извлечь Visual Embeddings для этих деталей.
  • Использование разнообразных ракурсов и крупных планов: Предоставляйте не только общие фотографии товара, но и крупные планы важных деталей. Если пользователь выделит деталь на исходном изображении, наличие у вас в индексе четкого изображения этой же детали увеличивает шансы на совпадение в particular sub-portion поиске.
  • Оптимизация для контекста (Object Overall): Убедитесь, что общий объект легко идентифицируется. Используйте чистый фон и правильное кадрирование. Механизм комбинирования (Claim 10) требует корректного распознавания object overall для сохранения контекста.
  • Тестирование в Google Lens: Регулярно проверяйте, как ваши товары распознаются в системах визуального поиска. Используйте функции уточнения (выделение области), чтобы увидеть, какие результаты система считает релевантными для отдельных частей вашего товара.

Worst practices (это делать не надо)

  • Использование изображений низкого качества или с «шумом»: Фотографии с плохим освещением, агрессивным сжатием, водяными знаками или отвлекающим фоном могут ухудшить распознавание отдельных визуальных признаков и генерацию качественных Visual Embeddings.
  • Игнорирование деталей товара: Размещение только одной общей фотографии товара, на которой не видны его уникальные характеристики. Это не позволит вашему товару ранжироваться по запросам, сфокусированным на этих деталях.
  • Чрезмерная стилизация в ущерб информативности: Изображения, которые слишком стилизованы (например, необычные фильтры или экстремальные углы съемки), могут затруднить для системы идентификацию как объекта в целом, так и его деталей.

Стратегическое значение

Этот патент подтверждает, что визуальный поиск становится все более точным, интерактивным и гранулярным. Для E-commerce это означает смещение фокуса с текстовой оптимизации на оптимизацию под машинное зрение. Способность Google интерпретировать сложный визуальный интент делает качество, детализацию и представление продуктовых изображений одним из ключевых факторов ранжирования в визуальном поиске. Долгосрочная стратегия должна включать инвестиции в качественный визуальный контент, оптимизированный для распознавания как целых объектов, так и их атрибутов.

Практические примеры

Сценарий: Оптимизация карточки товара (Дизайнерское платье с уникальным узором)

  1. Задача: Увеличить трафик из визуального поиска на платье с уникальным цветочным узором.
  2. Действия на основе патента:
    • Добавить фотографии платья общим планом на модели и отдельно для распознавания object overall (платье определенного фасона).
    • Добавить 1-2 фотографии крупным планом (макро), где четко видна текстура ткани и детали узора при хорошем освещении. Это оптимизирует распознавание particular sub-portion (узор).
  3. Ожидаемый результат: Когда пользователь видит похожий узор на другом предмете одежды и выделяет его (используя Free-form Input), система Google анализирует Visual Embeddings. Благодаря наличию четких изображений узора, эмбеддинги вашего товара будут иметь высокую степень совпадения. Система сформирует Combined Set of Content. Если система применит ранжирование с приоритетом детали (Claim 13), ваш товар может появиться в выдаче, даже если фасон платья отличается от исходного изображения.

Вопросы и ответы

Что такое Visual Embeddings и почему они критичны для этого патента?

Visual Embeddings — это числовые векторные представления визуального контента, созданные нейросетями. Они позволяют системе сравнивать изображения по их семантическому и визуальному содержанию, а не попиксельно. В этом патенте они критичны, так как используются для выполнения двойного поиска: оценки сходства как на уровне целых объектов (object overall), так и на уровне выделенных деталей (particular sub-portion).

Как работает механизм комбинирования результатов (Claim 10)?

Этот механизм решает проблему сохранения контекста. Система ищет два набора результатов: первый соответствует объекту в целом (например, «диван»), а второй — выделенной детали (например, «резные ножки»). Затем она формирует комбинированный набор (например, «диваны с резными ножками»). Это гарантирует, что пользователь получит результаты, соответствующие и типу объекта, и его специфическим характеристикам.

Что важнее для ранжирования: сходство с объектом в целом или с выделенной деталью?

Патент предусматривает гибкость (Claims 12 и 13). Система может ранжировать комбинированный набор, отдавая приоритет либо сходству с объектом в целом, либо сходству с выделенной деталью. Также упоминается возможность использования взвешенного среднего. Выбор стратегии, вероятно, зависит от конкретного запроса и уверенности системы в распознавании.

Как этот патент влияет на SEO для E-commerce?

Влияние значительное. Это подчеркивает, что оптимизация изображений должна проводиться не только для распознавания товара в целом, но и для распознавания его ключевых деталей. Если ваши изображения позволяют системе четко выделить и понять отдельные визуальные признаки (текстуру, цвет, форму деталей), вы сможете получать трафик по уточненным, гранулярным визуальным запросам.

Какие требования к фотографиям товаров вытекают из этого патента?

Необходимо использовать высококачественные, четкие изображения с хорошим освещением. Важно предоставлять не только общие планы, но и крупные планы ключевых деталей и уникальных характеристик товара. Избегайте визуального шума, водяных знаков на деталях и чрезмерного сжатия, которые могут ухудшить распознавание текстур и мелких элементов.

Может ли пользователь выделить несколько несвязанных деталей одновременно?

Да. Claim 21 специально описывает метод выбора подмножества пикселей, состоящего из двух или более несмежных групп (non-adjacent). Это позволяет пользователю сформировать сложный запрос, например, выделив рукава и воротник на платье одновременно, чтобы найти похожий фасон.

Связано ли это с функцией Google "Circle to Search"?

Да, описанные в патенте механизмы, особенно Claim 1 (рисование петли вокруг части объекта для инициации поиска), очень похожи на функциональность "Circle to Search" или аналогичные интерактивные элементы в Google Lens. Патент описывает базовую технологию, позволяющую реализовать такие функции для уточнения визуального интента пользователя.

Всегда ли пользователь должен выделять детали вручную?

Не обязательно. Патент упоминает initial visual feature suggestions (Claim 22). Система может автоматически распознать различные части объекта и предложить их пользователю для выбора. Однако, если автоматические предложения не подходят, пользователь может переключиться в режим свободного ввода (free-form selection mode) и выделить область самостоятельно.

Влияет ли текст вокруг изображения (например, Alt-теги) на этот тип поиска?

Патент сфокусирован исключительно на анализе визуальных данных (пикселей), пользовательском вводе и использовании visual embeddings. Текстовые атрибуты напрямую не упоминаются как факторы для этого конкретного механизма уточнения. Основная задача SEO — обеспечить высокое визуальное качество изображений.

Как SEO-специалисту проверить, насколько хорошо распознаются детали моих товаров?

Используйте инструменты визуального поиска, такие как Google Lens. Попробуйте загрузить изображение вашего товара и затем использовать инструменты уточнения (например, выделить область или деталь), чтобы увидеть, меняются ли результаты и насколько они релевантны выделенной детали. Это даст представление о том, как система интерпретирует визуальные признаки вашего продукта.

Похожие патенты

Как Google реализует функцию «Выделить и Искать» с интеллектуальным уточнением запроса на стороне клиента
Патент Google описывает клиентскую технологию, позволяющую пользователю выделить любой элемент на экране (текст или изображение) и мгновенно инициировать поиск. Система автоматически обрабатывает выделенное: применяет OCR к изображениям, дополняет частично выделенные слова и добавляет контекстные слова из окружающего контента для уточнения запроса перед его отправкой в поисковую систему.
  • US8838562B1
  • 2014-09-16
  • Семантика и интент

Как Google использует единый Image Embedding для параллельного поиска по разным вертикалям (Web, Shopping, Local) при визуальном запросе
Google патентует механизм для улучшения визуального поиска (например, Google Lens). Система генерирует единое векторное представление (Image Embedding) для изображения-запроса и использует его для одновременного поиска визуально похожих результатов в нескольких разных базах данных (например, в общем веб-индексе и специализированном индексе товаров или локаций). Контекст пользователя (местоположение, история) помогает системе выбрать, какие специализированные базы активировать для поиска.
  • US20240311421A1
  • 2024-09-19
  • Мультимедиа

  • Индексация

  • Семантика и интент

Как Google объединяет изображения и текст в мультимодальном поиске для уточнения визуальных запросов
Google использует модель уточнения запросов для мультимодального поиска (например, в Google Lens). Система принимает эмбеддинг исходного изображения и текстовое уточнение от пользователя. Модель генерирует новый, уточненный эмбеддинг изображения, который объединяет визуальные данные с текстовым интентом. Этот новый эмбеддинг используется для поиска релевантных изображений в общем пространстве эмбеддингов, позволяя пользователям итеративно уточнять визуальный поиск текстом.
  • US20240370487A1
  • 2024-11-07
  • Мультимедиа

  • Семантика и интент

Как Google разбирает изображения на части для визуального поиска товаров (e.g., Google Lens)
Система Google для визуального поиска товаров, которая анализирует изображения, извлекая глобальные и локальные признаки (цвет, форма, текстура). Патент описывает, как это позволяет пользователям искать похожие товары, выделяя конкретные части объекта (например, узор на сумке или форму каблука), используя технологию, лежащую в основе Google Lens.
  • US9008435B2
  • 2015-04-14
  • Мультимедиа

  • Индексация

  • Google Shopping

Как Google использует несколько изображений в одном запросе для уточнения визуального поиска через общие атрибуты и проекции эмбеддингов
Google использует механизм поиска, принимающий на вход два или более изображения. Система анализирует их для выявления общих атрибутов (стиль, цвет, тип объекта) и генерирует векторные представления (эмбеддинги). Если изображения вводятся последовательно, система вычисляет «траекторию» интереса пользователя в векторном пространстве и проецирует поиск в этом направлении, чтобы найти результаты, соответствующие эволюционирующему визуальному интенту.
  • US12271417B2
  • 2025-04-08
  • Мультимедиа

  • Семантика и интент

Популярные патенты

Как Google анализирует распределение качества входящих ссылок для классификации и понижения сайтов в выдаче
Google использует систему для оценки качества ссылочного профиля сайта. Система фильтрует входящие ссылки (удаляя шаблонные и дублирующиеся с одного домена), группирует оставшиеся по качеству источника (например, Vital, Good, Bad) и вычисляет взвешенный «Link Quality Score». Если доля низкокачественных ссылок слишком велика, сайт классифицируется как низкокачественный и понижается в результатах поиска.
  • US9002832B1
  • 2015-04-07
  • Ссылки

  • Антиспам

  • SERP

Как Google кластеризует похожие страницы, анализируя, куда пользователи переходят дальше (Co-visitation)
Google анализирует навигационные пути пользователей для определения схожести документов. Если после просмотра Страницы А и Страницы Б пользователи часто переходят к одному и тому же набору последующих страниц, Google считает Страницу А и Страницу Б похожими и объединяет их в кластер. Этот механизм позволяет определять тематическую близость на основе поведения пользователей.
  • US8650196B1
  • 2014-02-11
  • Поведенческие сигналы

  • SERP

  • Семантика и интент

Как Google определяет синонимы и варианты слов, анализируя категории выбранных пользователями результатов
Google использует метод стемминга, основанный на поведении пользователей и категориях сущностей. Если пользователи ищут разные слова (например, «пицца» и «пиццерия») и выбирают результаты одной категории («ресторан»), система идентифицирует эти слова как варианты одной основы (Stem Variants). Это происходит, если слова похожи по написанию ИЛИ если объем кликов статистически значим.
  • US9104759B1
  • 2015-08-11
  • Семантика и интент

  • Поведенческие сигналы

  • Персонализация

Как Google использует анализ параллельных анкорных текстов и кликов пользователей для перевода запросов и кросс-язычного поиска
Google использует механизм для автоматического перевода запросов с одного языка или набора символов на другой. Система создает вероятностный словарь, анализируя, как анкорные тексты на разных языках ссылаются на одни и те же страницы (параллельные анкоры). Вероятности перевода затем уточняются на основе того, на какие результаты кликают пользователи. Это позволяет осуществлять кросс-язычный поиск (CLIR).
  • US8706747B2
  • 2014-04-22
  • Мультиязычность

  • Семантика и интент

  • Ссылки

Как Google находит, оценивает и показывает «интересные факты» о сущностях в поиске
Google идентифицирует «уникальные» или «интересные» факты о сущностях, анализируя документы, на которые ссылаются с использованием триггеров (например, «fun facts»). Система извлекает предложения, кластеризует их для поиска лучшей формулировки и оценивает качество факта на основе авторитетности источника, уникальности терминов и топикальности. Эти факты затем показываются в выдаче в виде специальных блоков.
  • US11568274B2
  • 2023-01-31
  • Knowledge Graph

  • Семантика и интент

  • EEAT и качество

Как Google использует визуальное расположение новостей на главных страницах СМИ для ранжирования в Google News
Google анализирует главные страницы авторитетных новостных сайтов («Hub Pages»), чтобы определить важность новостей. Система оценивает «визуальную заметность» (Prominence) ссылки на статью — ее расположение (выше/ниже), размер шрифта, наличие картинки и сниппета. Чем заметнее ссылка на сайте СМИ, тем выше статья ранжируется в агрегаторах новостей.
  • US8375073B1
  • 2013-02-12
  • EEAT и качество

  • SERP

  • Ссылки

Как Google использует время взаимодействия пользователя с сайтом (Dwell Time) для расчета оценки качества всего сайта
Google использует агрегированные данные о продолжительности визитов пользователей на сайт для расчета метрики качества этого сайта (Site Quality Score). Система измеряет время взаимодействия (включая Dwell Time — время от клика в выдаче до возврата обратно), фильтрует аномальные визиты и нормализует данные по типам контента. Итоговая оценка используется как независимый от запроса сигнал для ранжирования и принятия решений об индексировании.
  • US9195944B1
  • 2015-11-24
  • Поведенческие сигналы

  • Индексация

  • SERP

Как Google использует контекст пользователя и интерактивное уточнение для обучения моделей поиска
Google может инициировать поиск пассивно, основываясь на контексте действий пользователя (например, чтении статьи или телефонном звонке). Система позволяет пользователю уточнить этот поиск, выбрав один из использованных критериев (например, тапнув на сущность в тексте), чтобы повысить его значимость. Реакция пользователя на уточненные результаты используется для машинного обучения и улучшения взвешивания критериев в будущих поисковых запросах.
  • US11568003B2
  • 2023-01-31
  • Семантика и интент

  • Персонализация

  • Поведенческие сигналы

Как Google использует социальные связи для выявления предвзятых ссылок и борьбы со ссылочными схемами и кликфродом
Google анализирует взаимоотношения между администраторами веб-сайтов (используя данные социальных сетей), чтобы определить независимость ссылок или кликов по рекламе. Если обнаружена тесная связь, это интерпретируется как предвзятость (Bias). В результате вес ссылки для ранжирования может быть снижен (борьба с Search Spamming), или клик по рекламе может быть дисконтирован (борьба с Ad Spamming).
  • US10402457B1
  • 2019-09-03
  • Ссылки

  • Антиспам

  • Краулинг

Как Google снижает ценность кликов по результатам, полученным из слишком общих запросов
Google использует механизм для корректировки показателей популярности (например, кликов) документа. Если документ получил клик в ответ на очень общий (широкий) запрос, ценность этого клика снижается. Это предотвращает искусственное завышение популярности документов, которые часто показываются по высокочастотным общим запросам, и повышает значимость кликов, полученных по более специфическим запросам.
  • US7925657B1
  • 2011-04-12
  • Поведенческие сигналы

seohardcore