SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google комбинирует визуальные признаки и распознанный текст (OCR) внутри изображения для улучшения визуального поиска

IMAGE SEARCH USING TEXT-BASED ELEMENTS WITHIN THE CONTENTS OF IMAGES (Поиск изображений с использованием текстовых элементов в содержимом изображений)
  • US9323784B2
  • Google LLC
  • 2010-12-09
  • 2016-04-26
  • Мультимедиа
  • Индексация
  • Семантика и интент
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google использует технологию мультимодального поиска, которая анализирует как визуальные характеристики захваченного изображения (например, с камеры телефона), так и текст, распознанный внутри него (OCR). Комбинация этих двух типов данных позволяет точнее идентифицировать электронный оригинал изображения, что критически важно для работы систем визуального поиска (например, Google Lens).

Описание

Какую проблему решает

Патент решает проблему повышения точности идентификации электронных версий контента, захваченного из физического мира или с экрана (rendered document). Поиск, основанный только на визуальном сопоставлении, может давать неоднозначные результаты из-за схожести изображений или условий съемки. Система улучшает точность визуального поиска (Visual Search) путем использования текста, находящегося внутри изображения, для устранения этой неоднозначности (disambiguation).

Что запатентовано

Запатентован метод и система мультимодального поиска. Мобильное устройство захватывает изображение из отображаемого документа. Система ищет электронную версию, используя комбинацию двух ключевых компонентов: визуальных характеристик изображения (characteristics of the image) и текста, распознанного (например, через OCR) внутри этого же изображения (text within the contents of the image).

Как это работает

Система работает следующим образом:

  • Захват: Пользователь использует устройство (например, камеру телефона) для захвата изображения с физического носителя.
  • Мультимодальное извлечение: Система обрабатывает изображение для извлечения визуальных характеристик и одновременно применяет OCR для распознавания текста внутри изображения.
  • Конструирование Запроса: Формируется комбинированный запрос, включающий как текст, так и визуальные признаки.
  • Поиск и Уточнение: Система выполняет поиск по индексу. Текстовые данные используются совместно с визуальными признаками для устранения неоднозначности и более точной идентификации совпадений.

Актуальность для SEO

Высокая. Технология лежит в основе современных систем визуального поиска, таких как Google Lens. С развитием мультимодальных моделей (например, MUM), способность точно интерпретировать изображения, содержащие текст (упаковки товаров, вывески, инфографика), является стратегическим направлением развития поиска Google.

Важность для SEO

Патент имеет высокое значение (80/100) для Image SEO и стратегий визуального поиска. Он прямо подтверждает, что Google активно извлекает и использует текст, размещенный непосредственно внутри изображений (в пикселях), как значимый сигнал для идентификации контента. Это требует от SEO-специалистов оптимизации не только метаданных (alt-текст), но и дизайна самого визуального контента для обеспечения машиночитаемости (OCR).

Детальный разбор

Термины и определения

Rendered Document (Отображаемый/Визуализированный документ)
Документ в форме, воспринимаемой человеком. Включает как печатные материалы (бумага, упаковка, реклама), так и контент на дисплее.
Characteristics of the image (Характеристики изображения)
Визуальные признаки, особенности или сигнатуры, извлеченные из изображения (например, формы, цвета, объекты, векторы признаков), используемые для визуального сопоставления (Image Matching).
Text within the contents of the image (Текст в содержимом изображения)
Текстовые элементы, которые являются визуальной частью самого изображения. Этот текст извлекается системой, например, с помощью OCR.
Disambiguation (Устранение неоднозначности)
Процесс уточнения результатов поиска. В данном патенте текст используется для устранения неоднозначности среди визуально похожих результатов.
Signature (Сигнатура)
Представление захваченных данных после процесса распознавания. Может состоять из текста, визуальных признаков или набора возможных текстовых транскрипций.
Context Analysis (Контекстный анализ)
Процесс использования дополнительной информации (например, местоположения пользователя или идентификации исходного документа) для уточнения (constrain) результатов поиска.
Markup (Разметка)
Дополнительная функциональность или данные, связанные с документом или его частью (оверлей). Определяет действия (actions), которые система может предпринять при взаимодействии с этим фрагментом.

Ключевые утверждения (Анализ Claims)

Анализ основан на Abstract (Аннотации), Detailed Description (Подробном описании) и доступных Claims патента.

Claim 1 (Независимый пункт): Описывает основной метод поиска электронного контента с помощью мобильного устройства.

  1. Мобильное устройство захватывает изображение из rendered document.
  2. Выполняется поиск электронной версии захваченного изображения.
  3. Ключевое условие: Поиск использует И (i) характеристики изображения (characteristics of the image), И (ii) текст в содержимом изображения (text within the contents of the image).
  4. Устройство получает результат, основанный на комбинации (i) и (ii).

Ядро изобретения — обязательное использование мультимодального ввода (визуальные признаки + встроенный текст) для поиска изображения, инициированного мобильным устройством.

Claim 2 и 4 (Зависимые): Уточняют механизм извлечения текста. Текст (ii) получается путем применения OCR к захваченному изображению.

Claim 5 (Зависимый): Описывает инфраструктуру. Поиск включает запрос к индексу, который поддерживает как текстовые запросы, так и сопоставление изображений (image matching).

Это требует наличия мультимодального индекса, где для изображений хранятся и визуальные признаки, и распознанный текст.

Claim 7 (Зависимый): Детализирует механизм поиска. Он включает выполнение поиска изображения (Image Search) и использование текста для дальнейшего устранения неоднозначности (further disambiguate) и идентификации совпадений.

Claims 8 и 9 (Зависимые): Вводят использование контекста. Поиск может быть ограничен (constrained) на основе контекста (Context Analysis), который может включать идентификацию документа, из которого было захвачено изображение, что позволяет ограничить корпус поиска.

Где и как применяется

Изобретение затрагивает несколько этапов поисковой архитектуры, обеспечивая работу визуального поиска.

CRAWLING – Сканирование и Сбор данных (В контексте пользователя)
В данном патенте этот этап реализуется на стороне пользователя: захват изображения из rendered document с помощью портативного устройства (камеры телефона).

INDEXING – Индексирование и извлечение признаков
Применяется двояко:

  1. На стороне сервера: Индексирование корпуса изображений. Это включает извлечение текста (OCR) из изображений в индексе и расчет их визуальных сигнатур для создания мультимодального индекса.
  2. На стороне клиента/шлюза: Обработка захваченного пользователем изображения в реальном времени — выполнение OCR и извлечение визуальных сигнатур для формирования запроса.

QUNDERSTANDING – Понимание Запросов
Когда пользователь инициирует визуальный поиск, система интерпретирует входящие данные как мультимодальный запрос. Происходит конструирование сложного запроса (query construction), объединяющего визуальные и текстовые данные.

RANKING – Ранжирование (Retrieval)
Система выполняет поиск по мультимодальному индексу. Алгоритмы ранжирования оценивают релевантность кандидатов на основе комбинированного совпадения визуальных характеристик и распознанного текста. Текст используется для валидации и уточнения результатов.

RERANKING – Переранжирование
Результаты поиска могут уточняться с использованием контекста (Context Analysis) для ограничения поиска (constrain) и повышения точности.

Входные данные:

  • Пиксельные данные захваченного изображения.
  • Опционально: контекстные данные (местоположение, история пользователя, предполагаемый источник).

Выходные данные:

  • Идентифицированная электронная версия изображения или связанный контент/действия (Actions).

На что влияет

  • Конкретные типы контента: Изображения, содержащие текст: инфографика, рекламные баннеры, фотографии вывесок, упаковка товаров, скриншоты, логотипы с текстом.
  • Специфические запросы: Визуальные поисковые запросы (Visual Search), инициированные камерой пользователя (например, функциональность Google Lens).
  • Конкретные ниши или тематики: E-commerce (поиск товара по фото), Local SEO (идентификация бизнеса по вывеске), реклама (взаимодействие с печатными материалами).

Когда применяется

  • Условия работы: Алгоритм применяется, когда пользователь инициирует визуальный поиск, используя изображение, которое содержит как значимые визуальные элементы, так и распознаваемый текст (OCR-friendly).
  • Триггеры активации: Запрос от устройства захвата (например, мобильного телефона).

Пошаговый алгоритм

Детальное описание процесса обработки захваченного контента:

  1. Захват данных (Capture): Получение оптических данных из rendered document.
  2. Предварительная обработка (Data Processing): Улучшение качества сигнала, удаление артефактов захвата.
  3. Распознавание и извлечение признаков (Параллельный процесс):
    1. Визуальный анализ: Извлечение визуальных характеристик или сигнатур из изображения (Image Characteristics).
    2. Текстовый анализ: Выполнение OCR для конвертации данных в текст. Может включать генерацию набора возможных текстовых транскрипций (упоминается в описании как Uncertain OCR).
  4. Конструирование запроса (Query Construction): Формирование мультимодального поискового запроса, включающего извлеченный текст И визуальные характеристики.
  5. Поиск и контекстный анализ (Search & Context Analysis): Отправка запроса поисковым системам. Идентификация документов-кандидатов. Использование контекста для ограничения поиска (constrain).
  6. Уточнение (Disambiguation): Использование текста для устранения неоднозначности между визуально похожими результатами.
  7. Ретривинг и Действия (Retrieval/Actions): Получение доступа к идентифицированному электронному документу и выполнение связанных действий (на основе Markup Analysis).

Какие данные и как использует

Данные на входе

Система использует следующие типы данных:

  • Мультимедиа факторы (Визуальные данные): Захваченное изображение. Из него извлекаются image characteristics — визуальные признаки, используемые для сопоставления (формы, цвета, объекты, логотипы).
  • Контентные факторы (Текстовые данные): Текст, извлеченный из изображения с помощью OCR (text within the contents of the image). Это могут быть названия, слоганы, ключевые слова.
  • Пользовательские и Контекстные факторы: Данные об учетной записи пользователя (user and account info), история захватов, время и местоположение захвата (используются в Context Analysis для ограничения поиска).

Какие метрики используются и как они считаются

Патент не приводит конкретных формул, но описывает использование следующих метрик и подходов:

  • Оценка визуального совпадения (Image Matching Score): Метрика схожести визуальных характеристик запроса и изображений в индексе.
  • Оценка текстового совпадения (Text Matching Score): Метрика релевантности распознанного текста и текста, ассоциированного с изображениями в индексе. Может учитывать вероятности из Uncertain OCR.
  • Комбинированная оценка (Combined Score): Итоговая метрика, которая объединяет оценки визуального и текстового совпадения. Система использует текст для disambiguation (устранения неоднозначности) визуальных результатов.

Выводы

  1. Визуальный поиск является мультимодальным: Ключевой вывод — Google не рассматривает изображения исключительно как визуальные объекты. Текст, физически присутствующий на изображении (в пикселях), активно извлекается (OCR) и используется как неотъемлемая часть поискового запроса наравне с визуальными признаками.
  2. Текст как средство устранения неоднозначности (Disambiguation): Основная роль встроенного текста в этом механизме — устранение неоднозначности. Если визуальные характеристики находят несколько похожих изображений, именно текст помогает системе точно идентифицировать искомый контент (Claim 7).
  3. Критичность машиночитаемости текста на изображениях: Чтобы система могла использовать текст как сигнал, он должен быть разборчивым для алгоритмов OCR. Это напрямую влияет на подходы к дизайну веб-графики и маркетинговых материалов (OCR-friendly design).
  4. Требование к мультимодальному индексу: Реализация технологии требует сложной инфраструктуры индексирования, способной хранить и обрабатывать как визуальные, так и текстовые данные для одного и того же объекта (изображения).
  5. Контекст повышает точность: Система может использовать знание контекста (например, источник изображения, местоположение пользователя) для ограничения области поиска (constrain) и повышения релевантности результатов (Claims 8 и 9).

Практика

Best practices (это мы делаем)

  • Оптимизация текста на изображениях для OCR: При создании визуального контента (инфографики, баннеров, фотографий товаров) убедитесь, что весь ключевой текст легко читается машиной. Используйте четкие шрифты, высокий контраст между текстом и фоном и достаточный размер текста.
  • Стратегическое использование текста в графике: Размещайте важную информацию (УТП, ключевые слова, названия моделей, бренды) в виде текста на ключевых изображениях. Этот текст предоставит Google дополнительные сигналы через OCR для идентификации контента в визуальном поиске.
  • Тестирование в Google Lens: Проверяйте, как ваши основные изображения распознаются инструментами визуального поиска. Убедитесь, что текст корректно считывается и интерпретируется. Если ключевой текст не распознается, необходимо скорректировать дизайн.
  • Обеспечение согласованности визуальных и текстовых элементов: Убедитесь, что текст на изображении семантически релевантен визуальному содержанию. Согласованность усиливает мультимодальный сигнал, так как система ищет совпадения по обоим параметрам.
  • Оптимизация визуальной уникальности: Поскольку поиск использует и визуальные характеристики, важно создавать уникальные или брендированные изображения. Это поможет системе точнее идентифицировать ваш контент при комбинированном поиске.

Worst practices (это делать не надо)

  • Использование сложных и нечитаемых шрифтов: Применение декоративных, рукописных, искаженных или слишком мелких шрифтов на изображениях. Это затрудняет работу OCR и мешает системе извлечь текстовые сигналы.
  • Низкий контраст и сложный фон: Размещение текста поверх активного фона или использование цветов с низким контрастом значительно ухудшает качество распознавания текста.
  • Игнорирование текста на изображении как фактора: Рассматривать Image SEO только как оптимизацию alt-тегов и окружающего текста. В контексте данного патента, игнорирование текста внутри самого изображения является упущением возможности улучшить видимость в визуальном поиске.
  • Низкое качество изображений: Использование размытых, низкокачественных изображений затрудняет как извлечение надежных визуальных характеристик, так и распознавание текста.

Стратегическое значение

Патент подтверждает стратегический приоритет Google в развитии мультимодального поиска и технологий типа Google Lens. Для SEO это означает, что оптимизация визуальных активов становится критически важной. Патент доказывает, что текст, встроенный в изображения, активно индексируется и используется для поиска и ранжирования. Стратегия создания контента должна учитывать, как пользователи ищут информацию через камеры своих устройств, особенно в E-commerce и локальном поиске.

Практические примеры

Сценарий: Оптимизация карточки товара в E-commerce для визуального поиска

  1. Задача: Улучшить видимость нового смартфона через Google Lens и поиск по изображениям.
  2. Действие (на основе патента): При подготовке фотографий продукта убедиться, что на главном изображении (например, фото упаковки) четко и крупно видно название модели и бренд. Добавить инфографику, где ключевые характеристики (например, "108MP Camera") написаны контрастным, чистым шрифтом.
  3. Механизм работы: Google индексирует изображения, извлекая визуальные признаки смартфона и успешно распознавая название модели и характеристики с помощью OCR.
  4. Ожидаемый результат: Пользователь, использующий Google Lens для сканирования продукта в физическом магазине или в печатной рекламе, инициирует мультимодальный запрос. Система точно идентифицирует товар благодаря совпадению визуальных признаков и текста, направляя пользователя на нужную страницу интернет-магазина.

Вопросы и ответы

Означает ли этот патент, что Google читает и индексирует весь текст на моих изображениях?

Да, патент прямо указывает на использование OCR для извлечения текста из изображений (text within the contents of the image) и использования этого текста как одного из двух ключевых компонентов для поиска. Следует исходить из того, что любой машиночитаемый текст на изображении потенциально индексируется и используется в поиске.

Что важнее для идентификации по этому патенту: визуальное сходство или распознанный текст?

Патент подчеркивает, что результат поиска основан на комбинации обоих факторов. Визуальные элементы используются для поиска похожих изображений, а текст играет ключевую роль в устранении неоднозначности (disambiguation) между ними (Claim 7). Для точного совпадения в идеале должны совпасть оба компонента.

Как мне оптимизировать текст внутри изображений для этой системы?

Главное — обеспечить максимальную читаемость для OCR. Используйте чистые шрифты достаточного размера (предпочтительно без засечек), обеспечьте высокий контраст между текстом и фоном, избегайте наложения текста на сложные узоры и убедитесь в достаточном разрешении изображения.

Чем это отличается от использования ALT-текста?

ALT-текст — это внешнее описание в HTML-коде. Технология в патенте анализирует внутреннее содержание пикселей изображения, распознавая текст, который является частью самой картинки. Это разные сигналы, и оба важны, но патент фокусируется на прямом анализе визуального контента.

Как эта технология связана с Google Lens?

Эта технология описывает фундаментальный мультимодальный подход, который используется в Google Lens. Когда вы используете Lens для сканирования объекта с текстом (например, меню или упаковки товара), система одновременно распознает объект (визуальные характеристики) и читает текст (OCR), комбинируя эти данные для предоставления результата.

Какие типы изображений наиболее выигрывают от этой технологии?

Наибольший выигрыш получают изображения, где текст и графика несут совместную смысловую нагрузку: инфографика, рекламные баннеры, фотографии товаров в упаковке, слайды презентаций, логотипы с текстом и фотографии вывесок (Local SEO).

Что такое "Rendered Document" в контексте этого патента?

Rendered Document — это любой документ, который может воспринимать человек. Это включает физические носители (бумага, рекламный щит, упаковка), а также цифровые дисплеи (экран компьютера). Система предназначена для захвата изображений с любого из этих источников.

Использует ли система контекст при таком поиске?

Да, в патенте упоминается Context Analysis и возможность ограничения (constrain) поиска на основе контекста (Claims 8 и 9). Например, если система может определить, из какого документа (журнала, сайта) было захвачено изображение, она может сузить область поиска для повышения точности.

Как система справляется с ошибками OCR?

В описании патента упоминается концепция "Uncertain OCR". Система может генерировать несколько вариантов распознавания текста с разными весами вероятности (probability weightings) и использовать их при поиске, чтобы повысить шанс нахождения правильного совпадения, даже если качество захвата было низким.

Как проверить, хорошо ли Google распознает текст на моих изображениях?

Самый практичный способ — использовать Google Lens на смартфоне. Наведите камеру на изображение (в печатном виде или на экране) и проверьте, может ли система выделить и корректно скопировать текст. Также можно использовать Google Vision AI API для более технического анализа качества распознавания.

Похожие патенты

Как Google использует OCR и канонические документы для улучшения результатов визуального поиска
Google использует технологию визуального поиска для идентификации текста в изображениях (визуальных запросах). Система оценивает качество распознанного текста (OCR), находит соответствующие строки в своей базе канонических документов (например, веб-страниц или книг) и генерирует комбинированный результат. Этот результат может накладывать чистый текст или изображение из канонического источника поверх исходного визуального запроса, создавая «исправленную» версию изображения.
  • US9176986B2
  • 2015-11-03
  • Мультимедиа

  • Индексация

  • EEAT и качество

Как Google использует текст внутри изображений (например, Street View) для индексации и ранжирования в локальном и имиджевом поиске
Google извлекает текст непосредственно из изображений (например, названия улиц, вывески бизнесов в Street View), используя передовые методы OCR и улучшения качества (Superresolution). Этот текст ассоциируется с точными географическими координатами (GPS). Это позволяет Google индексировать информацию из реального мира и использовать её для ответа на локальные поисковые запросы и повышения релевантности поиска по картинкам.
  • US8098934B2
  • 2012-01-17
  • Индексация

  • Local SEO

  • Мультимедиа

Как Google преобразует изображения в текст для понимания мультимодальных запросов с помощью LLM
Google использует систему для обработки мультимодальных запросов (текст + изображение), позволяя LLM отвечать на вопросы об изображениях. Система анализирует изображение с помощью вспомогательных моделей (распознавание объектов, VQA) и выполняет обратный поиск по картинкам для извлечения текста с найденных веб-ресурсов. Вся эта информация объединяется в структурированный текстовый промт, который позволяет LLM понять визуальный контекст и сгенерировать релевантный ответ.
  • US20250061146A1
  • 2025-02-20
  • Мультимедиа

  • Семантика и интент

Как Google находит оригинальный цифровой документ по фотографии текста с помощью продвинутого OCR
Google использует технологию для обработки визуальных запросов (например, фотографий страниц книги). Система выполняет OCR и применяет сложный алгоритм оценки качества распознавания, учитывающий контекст и языковые модели. Это позволяет выделить наиболее надежные строки текста, которые затем используются для точного поиска и возврата пользователю оригинального канонического документа (цифровой версии).
  • US9183224B2
  • 2015-11-10
Как Google объединяет изображение с камеры и одновременный аудиовход (речь и звуки) для выполнения сложных мультимодальных поисковых запросов
Система мультимодального поиска Google, которая одновременно обрабатывает визуальные данные с камеры и аудиоданные с микрофона. Система извлекает визуальные признаки, транскрибирует речь и анализирует звуковые сигнатуры. Это позволяет пользователям задавать контекстные вопросы об объектах в кадре (например, «[Фото платья] + Найди такое же синее») или диагностировать проблемы по звуку и изображению (например, шум неисправного прибора), получая релевантные результаты из веб-поиска, поиска по картинкам или от генеративных моделей.
  • US12346386B2
  • 2025-07-01
  • Мультимедиа

  • Семантика и интент

Популярные патенты

Как Google использует офлайн-сигналы и авторитетность сущностей для ранжирования контента
Google использует реальные, офлайн-сигналы авторитетности для ранжирования документов, у которых отсутствует естественная ссылочная структура (например, оцифрованные книги). Система оценивает коммерческий успех документа (данные о продажах, списки бестселлеров), репутацию связанных сущностей (автора и издателя) и может переносить ссылочный авторитет с официальных сайтов этих сущностей на сам документ для улучшения его позиций в поиске.
  • US8799107B1
  • 2014-08-05
  • EEAT и качество

  • SERP

  • Поведенческие сигналы

Как Google использует данные веб-поиска и клики пользователей для классификации бизнесов и построения иерархии категорий
Google анализирует логи веб-поиска (введенные ключевые слова и последующие клики по результатам), чтобы понять, как пользователи интуитивно классифицируют бизнесы. Эти данные используются для автоматического построения динамической иерархической структуры категорий. Эта структура затем применяется для улучшения точности поиска, в частности, для оптимизации моделей распознавания речи в голосовых системах.
  • US7840407B2
  • 2010-11-23
  • Поведенческие сигналы

  • Семантика и интент

  • Структура сайта

Как Google использует исторические паттерны CTR для предсказания сезонных и циклических изменений интента пользователя
Google анализирует исторические данные о кликах (CTR) для выявления предсказуемых изменений в интересах пользователей по неоднозначным запросам. Если интент меняется в зависимости от сезона, дня недели или времени суток, система корректирует ранжирование, чтобы соответствовать доминирующему в данный момент интенту. Например, по запросу "turkey" в ноябре приоритет получат рецепты, а не информация о стране.
  • US8909655B1
  • 2014-12-09
  • Семантика и интент

  • Поведенческие сигналы

  • SERP

Как Google использует клики пользователей в Поиске по Картинкам для определения реального содержания изображений
Google использует данные о поведении пользователей для автоматической идентификации содержания изображений. Если пользователи вводят определенный запрос (Идею) и массово кликают на конкретное изображение в результатах поиска, система ассоциирует это изображение с Концептом, производным от запроса. Это позволяет Google понимать, что изображено на картинке, не полагаясь исключительно на метаданные или сложный визуальный анализ, и улучшает релевантность ранжирования в Image Search.
  • US8065611B1
  • 2011-11-22
  • Поведенческие сигналы

  • Семантика и интент

  • Мультимедиа

Как Google генерирует блок "Похожие вопросы" (People Also Ask) на основе анализа кликов и поведения пользователей
Google анализирует топовые результаты по исходному запросу и определяет "Тематические запросы" (Topic Sets) — прошлые запросы, по которым пользователи кликали на эти результаты. Затем система ищет популярные вопросы, соответствующие этим темам, фильтрует дубликаты на основе общности кликов и показывает их в блоке PAA для дальнейшего исследования темы.
  • US9213748B1
  • 2015-12-15
  • SERP

  • Семантика и интент

  • Поведенческие сигналы

Как Google ранжирует сущности (например, фильмы или книги), используя популярность связанных веб-страниц и поисковых запросов в качестве прокси-сигнала
Google использует механизм для определения популярности контентных сущностей (таких как фильмы, телешоу, книги), когда прямые данные о потреблении недоступны. Система идентифицирует авторитетные «эталонные веб-страницы» (например, страницы Википедии) и связанные поисковые запросы. Затем она измеряет популярность сущности, анализируя объем трафика на эти эталонные страницы и частоту связанных запросов в поиске, используя эти данные как прокси-сигнал для ранжирования сущности.
  • US9098551B1
  • 2015-08-04
  • EEAT и качество

  • Поведенческие сигналы

  • SERP

Как Google фильтрует персонализированные предложения запросов на основе контента просматриваемой страницы
Google использует механизм для генерации предложений следующего запроса после того, как пользователь покинул страницу выдачи. Система создает кандидатов на основе истории поиска пользователя, а затем фильтрует их, проверяя релевантность контенту страницы, которую пользователь просматривает в данный момент. Это гарантирует, что предложения соответствуют как интересам пользователя, так и текущему контексту просмотра.
  • US8392435B1
  • 2013-03-05
  • Персонализация

  • Поведенческие сигналы

  • SERP

Как Google использует машинное обучение и поведение пользователей для понимания скрытого намерения в коммерческих запросах
Google использует систему машинного обучения для анализа того, какие товары пользователи выбирают после ввода широких или неоднозначных запросов. Изучая скрытые атрибуты (метаданные) этих выбранных товаров, система определяет «скрытое намерение» запроса. Это позволяет автоматически переписывать будущие неоднозначные запросы в структурированный формат, ориентированный на атрибуты товара, а не только на ключевые слова.
  • US20180113919A1
  • 2018-04-26
  • Семантика и интент

  • SERP

  • Поведенческие сигналы

Как Google использует исторические данные о кликах (CTR) по категориям для определения доминирующего интента неоднозначных запросов
Google анализирует, на какие категории результатов пользователи кликали чаще всего в прошлом (CTR) по неоднозначному запросу (например, "Pool"). Система определяет доминирующие интенты, выявляя резкие перепады в CTR между категориями или используя иерархию категорий, и повышает в ранжировании результаты, соответствующие наиболее популярным интерпретациям.
  • US8738612B1
  • 2014-05-27
  • Семантика и интент

  • Поведенческие сигналы

  • SERP

Как Google рассчитывает тематическую популярность (Topical Authority) документов на основе поведения пользователей
Google использует данные о посещаемости и навигации пользователей для расчета популярности документов. Система классифицирует документы и запросы по темам, а затем вычисляет популярность документа внутри каждой конкретной темы (Per-Topic Popularity). Эта метрика используется как сигнал ранжирования, когда тема запроса пользователя соответствует теме документа.
  • US8595225B1
  • 2013-11-26
  • Поведенческие сигналы

  • Семантика и интент

  • SERP

seohardcore