SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google использует контент на экране пользователя для понимания и переписывания неоднозначных запросов

CONTEXTUALLY DISAMBIGUATING QUERIES (Контекстуальное устранение неоднозначности запросов)
  • US10565256B2
  • Google LLC
  • 2017-03-20
  • 2020-02-18
  • Семантика и интент
  • Мультимедиа
  • Персонализация
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google использует механизм для понимания неоднозначных запросов (например, «Что это?»), анализируя то, что пользователь видит на экране своего устройства. Система определяет основное изображение, распознает объекты на нем и анализирует окружающий текст. Затем, используя эту информацию и историю поиска пользователя, она переписывает исходный запрос в конкретный поисковый запрос.

Описание

Какую проблему решает

Патент решает проблему обработки контекстуально неоднозначных запросов, особенно голосовых (например, «Что это?», «Где это было снято?»), которые не содержат прямых ссылок на объект интереса. Система улучшает понимание таких запросов, используя визуальный контекст — то, что отображается на экране устройства пользователя в момент запроса, — для disambiguation (устранения неоднозначности) и формирования точного поискового запроса.

Что запатентовано

Запатентована система для контекстуального устранения неоднозначности запросов путем анализа графического интерфейса (graphical interface) устройства пользователя. Система идентифицирует изображение, которое с наибольшей вероятностью является объектом интереса, используя image confidence score. Затем она извлекает контекстуальные метки (labels) с помощью распознавания изображений (image recognition) и текста (text recognition). Эти метки оцениваются с учетом истории пользователя и используются для переписывания исходного неоднозначного запроса в конкретный поисковый запрос.

Как это работает

Система работает следующим образом:

  • Получение данных: Система получает снимок экрана и транскрипцию неоднозначного запроса пользователя.
  • Идентификация основного изображения: Анализируются все изображения на экране. Для каждого вычисляется image confidence score, основанный на количестве распознанных сущностей (number of entities) и размере изображения. Выбирается изображение с наивысшим баллом.
  • Извлечение контекста (Labels): Выполняется image recognition на выбранном изображении и text recognition (OCR) на остальной части экрана для генерации меток.
  • Оценка меток и Персонализация: Для каждой метки вычисляется label confidence score. Эта оценка основывается на сравнении метки с прошлыми запросами пользователя (past queries).
  • Генерация запроса: Система выбирает лучшие метки и использует их для переписывания исходной транскрипции (например, «Что это?» превращается в «Что такое Эйфелева башня?»).

Актуальность для SEO

Высокая. С развитием мультимодального поиска (Google Lens, Circle to Search) и голосовых ассистентов, способность Google понимать контекст на основе визуальной информации становится критически важной. Этот патент описывает базовый механизм того, как визуальный контекст и персонализация используются для понимания запроса, что является фундаментальным аспектом современных поисковых технологий.

Важность для SEO

Патент имеет высокое значение для SEO (7.5/10), особенно в контексте оптимизации изображений и мультимодального поиска. Он демонстрирует, что Google активно анализирует не только само изображение, но и окружающий его текст для определения контекста. Это подчеркивает важность того, чтобы сущности на изображениях были легко распознаваемыми, а сопутствующий контент предоставлял четкие семантические сигналы, которые система может использовать для формирования поисковых запросов.

Детальный разбор

Термины и определения

Graphical Interface Representation (Представление графического интерфейса)
Данные, отображающие то, что пользователь видит на экране устройства (например, снимок экрана).
Image Recognition Engine (Система распознавания изображений)
Компонент, анализирующий изображения для идентификации сущностей, объектов, локаций и генерации First Labels.
Text Recognition Engine (Система распознавания текста)
Компонент, выполняющий анализ текста на экране (например, OCR) для извлечения текстовой информации и генерации Second Labels.
First Labels (Первые метки)
Метки, сгенерированные на основе image recognition выбранного изображения. Указывают на визуальный контекст.
Second Labels (Вторые метки)
Метки, сгенерированные на основе text recognition на части экрана, не включающей выбранное изображение. Указывают на текстовый контекст.
Image Confidence Score (Оценка уверенности изображения)
Метрика, отражающая вероятность того, что конкретное изображение на экране является основным объектом интереса пользователя (primary interest). Рассчитывается на основе количества сущностей (number of entities) в изображении и его размера.
Label Confidence Score (Оценка уверенности метки)
Метрика, отражающая вероятность того, что метка соответствует интересу пользователя. Рассчитывается на основе сравнения с прошлыми запросами пользователя (past queries).
Query Confidence Score (Оценка уверенности запроса)
Метрика, указывающая на вероятность того, что сгенерированный кандидат в поисковые запросы является точным переписыванием исходной транскрипции.

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает полный процесс контекстуальной дисамбигуации запроса с акцентом на методы выбора основного изображения и персонализированной оценки меток.

  1. Система получает представление графического интерфейса и транскрипцию запроса.
  2. Идентифицируются два или более изображений в интерфейсе.
  3. Выбор изображения (Ключевой механизм 1): Для каждого изображения определяется количество содержащихся в нем сущностей (number of entities). На основе этого количества вычисляется image confidence score. Выбирается изображение на основе этих оценок.
  4. Определяются First Labels путем распознавания выбранного изображения.
  5. Определяются Second Labels путем распознавания текста в области интерфейса, не включающей выбранное изображение.
  6. Оценка меток и Персонализация (Ключевой механизм 2): First Labels и Second Labels сравниваются с прошлыми запросами пользователя (past queries received from the user). На основе этого сравнения вычисляется label confidence score для каждой метки.
  7. Выбирается подмножество меток на основе их label confidence scores.
  8. Генерируется поисковый запрос на основе транскрипции и выбранного подмножества меток.
  9. Поисковый запрос предоставляется для вывода.

Claim 2 (Зависимый от 1): Уточняет метод генерации запроса. Генерация включает замену терминов исходной транскрипции (например, «это») на одну или несколько выбранных меток.

Claim 3 (Зависимый от 1): Описывает альтернативный метод выбора финального запроса. Система сравнивает сгенерированных кандидатов с историческими данными запросов (historical query data) других пользователей и выбирает лучший вариант (например, наиболее популярный).

Claim 10 (Зависимый от 1): Дополняет механизм выбора изображения. Помимо количества сущностей, учитывается размер изображения (size of the image) для корректировки Image confidence score.

Claim 7 и 8 (Зависимые от 1): Описывают возможность генерации и выполнения команды (command), а не только поискового запроса (например, сохранить изображение, импортировать в приложение).

Где и как применяется

Изобретение применяется на этапе понимания запроса, используя визуальные данные, доступные в момент запроса (например, в Google Assistant, Google Lens, Circle to Search).

QUNDERSTANDING – Понимание Запросов
Это основная область применения патента. Система работает для интерпретации намерения пользователя, когда сам запрос неоднозначен.

  1. Контекстуализация: Система использует визуальный контекст (снимок экрана) для обогащения семантического представления запроса.
  2. Распознавание Сущностей (NER): Система извлекает сущности из визуальных данных на экране (используя Image Recognition и Text Recognition).
  3. Переписывание Запроса (Query Rewriting): Исходный неоднозначный запрос переписывается в конкретный поисковый запрос.
  4. Персонализация: Процесс переписывания персонализируется с использованием истории запросов пользователя для выбора наиболее релевантных меток.

Входные данные:

  • Транскрипция неоднозначного запроса пользователя.
  • Представление графического интерфейса (снимок экрана) в момент запроса.
  • Исторические данные запросов пользователя (past queries).
  • Исторические данные запросов других пользователей (historical query data).

Выходные данные:

  • Конкретный, дисамбигуированный поисковый запрос, готовый для передачи в систему ранжирования.
  • Или команда (command) для выполнения действия.

На что влияет

  • Конкретные типы контента: Наибольшее влияние оказывается на контент, богатый изображениями — социальные сети, новостные статьи, страницы товаров в e-commerce, галереи.
  • Специфические запросы: Влияет на обработку неоднозначных информационных запросов, где пользователь ссылается на визуальный элемент на экране (дейктические запросы).
  • Пользовательские факторы: Патент явно указывает на использование истории запросов пользователя для определения того, какие метки наиболее релевантны для него в данный момент.

Когда применяется

  • Триггеры активации: Обнаружение неоднозначного запроса (часто содержащего местоимения вроде «этот», «тот») или предопределенного ключевого слова/фразы (predefined hotword, Claim 6), указывающего на необходимость анализа экрана.
  • Условия работы: Наличие на экране визуального контента (изображений и текста), из которого можно извлечь контекстуальные метки.

Пошаговый алгоритм

Процесс А: Идентификация основного изображения

  1. Получение данных: Система получает транскрипцию запроса и представление графического интерфейса.
  2. Идентификация изображений: В интерфейсе обнаруживаются все присутствующие изображения.
  3. Анализ сущностей: Для каждого изображения определяется количество содержащихся в нем сущностей (например, достопримечательностей, людей, животных).
  4. Расчет Image Confidence Score: Для каждого изображения вычисляется оценка уверенности на основе количества обнаруженных сущностей и размера изображения.
  5. Выбор основного изображения: Выбирается изображение с наивысшим Image Confidence Score.

Процесс Б: Извлечение и оценка контекста

  1. Распознавание изображения: Выбранное изображение анализируется Image Recognition Engine для генерации First Labels. Могут использоваться метаданные изображения (Claim 9).
  2. Распознавание текста: Области интерфейса за пределами выбранного изображения анализируются Text Recognition Engine для генерации Second Labels.
  3. Сравнение с историей пользователя: Все сгенерированные метки сравниваются с прошлыми запросами пользователя.
  4. Расчет Label Confidence Score: На основе результатов сравнения для каждой метки вычисляется оценка уверенности. Метки, связанные с интересами пользователя, получают более высокий балл.
  5. Выбор меток: Выбирается подмножество меток с наивысшими Label Confidence Scores.

Процесс В: Генерация поискового запроса

  1. Формирование кандидатов: Система генерирует кандидатов в поисковые запросы, заменяя термины в транскрипции на выбранные метки.
  2. Оценка кандидатов: Кандидаты могут сравниваться с historical query data (популярностью запросов у других пользователей) или для них может рассчитываться Query Confidence Score.
  3. Выбор финального запроса/команды: Выбирается лучший кандидат.
  4. Вывод: Финальный поисковый запрос или команда предоставляется для выполнения.

Какие данные и как использует

Данные на входе

Патент фокусируется на использовании визуальных и исторических данных для понимания запроса.

  • Контентные/Мультимедиа факторы (Визуальный контекст):
    • Изображения на экране: Анализируются для идентификации сущностей (entities), таких как достопримечательности, люди, животные (Claim 11).
    • Текст на экране: Текст, окружающий изображения (заголовки, комментарии), анализируется (часто через OCR) для извлечения дополнительного контекста.
    • Метаданные изображения: Упоминается возможность использования метаданных, связанных с изображением (Claim 9).
  • Структурные факторы (Макет экрана):
    • Размер изображения (Size): Используется для расчета Image Confidence Score (Claim 10).
  • Пользовательские факторы (Персонализация):
    • Прошлые запросы пользователя (Past queries): Критически важные данные. Используются для расчета Label Confidence Score (Claim 1).
  • Поведенческие факторы (Общие):
    • Исторические данные запросов (Historical query data): Данные о запросах других пользователей используются для валидации переписанного запроса (Claim 3).

Какие метрики используются и как они считаются

  • Number of Entities (Количество сущностей): Подсчет распознанных объектов внутри изображения. Является основным фактором для расчета Image Confidence Score.
  • Image Confidence Score: Рассчитывается на основе Number of Entities и размера изображения. Используется для выбора основного изображения на экране.
  • Label Confidence Score: Рассчитывается путем сравнения извлеченных меток с past queries пользователя. Отражает вероятность того, что метка релевантна текущему интересу пользователя.
  • Query Confidence Score: Оценка вероятности того, что сгенерированный запрос является точным переписыванием исходного намерения. Используется для выбора лучшего кандидата.

Выводы

  1. Визуальный контекст как ключ к пониманию запроса: Google может использовать все, что видит пользователь на экране (изображения и текст), для интерпретации неоднозначных запросов. Это фундаментальный механизм для мультимодального поиска.
  2. Идентификация основного объекта интереса: Система определяет основной объект интереса, отдавая приоритет изображениям с большим количеством распознаваемых сущностей (Number of Entities) и большим размером.
  3. Синергия изображения и текста: Для определения контекста используются как само изображение (Image Recognition), так и окружающий его текст (Text Recognition). Они дополняют друг друга (например, изображение показывает собаку, а текст уточняет породу).
  4. Персонализация в дисамбигуации (Критический фактор): Система активно использует историю поиска пользователя (past queries) для определения того, какие из распознанных сущностей наиболее релевантны для него сейчас (расчет Label Confidence Score).
  5. Валидация через исторические данные: Сгенерированные запросы могут валидироваться на основе общей популярности схожих запросов у других пользователей (historical query data), чтобы выбрать наиболее естественную формулировку.

Практика

Best practices (это мы делаем)

Хотя патент не описывает алгоритмы ранжирования, он критически важен для оптимизации под распознавание контента системами Google (Optimization for Recognition).

  • Оптимизация изображений для распознавания сущностей: Используйте четкие, высококачественные изображения, на которых ключевые сущности (продукты, локации, люди) легко идентифицируются. Изображения с четкими сущностями будут иметь более высокий Image Confidence Score, так как Number of Entities является ключевым фактором выбора.
  • Использование крупных основных изображений: Поскольку размер изображения влияет на Image Confidence Score (Claim 10), убедитесь, что ключевые изображения достаточно велики, особенно на мобильных устройствах.
  • Контекстуальное окружение изображений: Обеспечьте, чтобы текст, окружающий изображение (заголовки, подписи, основной текст), был семантически связан с сущностями на изображении. Этот текст используется для генерации Second Labels и помогает системе точно определить контекст.
  • Использование метаданных изображений: Поскольку патент упоминает использование метаданных (Claim 9), продолжайте заполнять релевантные метаданные и структурированные данные (Schema.org/ImageObject).
  • Обеспечение читаемости текста (для OCR): Текст на странице должен быть легко читаем (шрифт, контраст), чтобы обеспечить корректное извлечение Second Labels при анализе экрана пользователя.

Worst practices (это делать не надо)

  • Использование абстрактных или нечетких изображений: Изображения, на которых сложно распознать конкретные сущности, будут иметь низкий Number of Entities и, соответственно, низкий Image Confidence Score.
  • Разрыв между изображением и текстом: Размещение изображений в нерелевантном текстовом окружении. Если First Labels (из изображения) и Second Labels (из текста) противоречат друг другу, система может ошибочно интерпретировать контекст.
  • Игнорирование визуального поиска: Отношение к изображениям только как к декоративным элементам, без учета их роли в мультимодальном поиске и понимании контекста.

Стратегическое значение

Этот патент подтверждает стратегический курс Google на мультимодальность и глубокое понимание контекста. Для SEO это означает, что визуальные активы и их контекстуальное окружение становятся полноценными источниками данных для поисковой системы на этапе Query Understanding. Стратегии должны учитывать, как пользователи взаимодействуют с контентом через интерфейсы типа Lens или Assistant, и обеспечивать максимальную ясность сигналов как в изображениях, так и в тексте.

Практические примеры

Сценарий: Оптимизация карточки товара для мультимодального поиска

Задача: Убедиться, что если пользователь смотрит на карточку товара (например, кроссовки Nike Air Max) и спрашивает «Сколько они стоят?», система правильно поймет, о чем речь.

  1. Изображение (для Image Confidence Score и First Labels): Использовать большое (учет размера), четкое изображение кроссовок с видимыми деталями (логотип). Система распознает сущности: «Кроссовки», «Nike» (увеличивает Number of Entities).
  2. Текстовое окружение (для Second Labels): Заголовок страницы должен четко указывать модель: «Nike Air Max 270». Система извлекает метки: «Nike Air Max 270».
  3. Генерация запроса: Пользователь спрашивает «Сколько они стоят?». Система комбинирует транскрипцию и извлеченные метки с высоким Label Confidence Score («Nike Air Max 270»).
  4. Результат: Исходный запрос переписывается в «Сколько стоят Nike Air Max 270?».

Вопросы и ответы

Как система определяет, какое изображение на экране является главным, если их несколько?

Система вычисляет Image Confidence Score для каждого изображения. Согласно патенту (Claim 1 и 10), эта оценка основывается на двух ключевых факторах: количестве распознанных сущностей (Number of Entities) внутри изображения (например, достопримечательностей, людей, продуктов) и размере изображения. Изображение с наибольшим количеством четких сущностей и большим размером будет выбрано как основной объект интереса пользователя.

Насколько важен текст, окружающий изображение, в этом патенте?

Текст критически важен. Система использует Text Recognition (часто OCR) для анализа областей экрана за пределами основного изображения (например, заголовков, комментариев, подписей) и генерации Second Labels. Эти метки используются наравне с метками из самого изображения для определения общего контекста и переписывания запроса.

Использует ли этот механизм историю поиска пользователя?

Да, и это ключевой аспект патента (Claim 1). Извлеченные метки сравниваются с прошлыми запросами пользователя (past queries). Это сравнение используется для расчета Label Confidence Score. Если пользователь недавно интересовался определенной темой, и эта тема распознана на экране, соответствующая метка получит более высокий балл.

Какое значение этот патент имеет для оптимизации изображений (Image SEO)?

Он подчеркивает важность использования четких, понятных и достаточно крупных изображений. Чтобы максимизировать Image Confidence Score, изображение должно содержать легко распознаваемые сущности. Это означает отказ от слишком абстрактных визуальных материалов в пользу тех, которые четко передают суть контента и могут быть легко интерпретированы системами машинного зрения.

Как система решает, какую именно метку подставить в запрос, если их несколько?

Система выбирает подмножество меток с наивысшими Label Confidence Scores (на основе истории пользователя). Затем она генерирует кандидатов в поисковые запросы. Выбор финального запроса может дополнительно валидироваться путем сравнения кандидатов с историческими данными запросов других пользователей (Claim 3) для выбора наиболее популярного варианта.

Применяется ли этот патент только к голосовому поиску?

Хотя он особенно полезен для устных запросов (utterances), описанный механизм может применяться к любой форме неоднозначного ввода, где доступен визуальный контекст экрана. Это может включать текстовый ввод в интерфейсе ассистента или использование функций типа Google Lens или Circle to Search, где пользователь инициирует поиск на основе содержимого экрана.

Учитывает ли система метаданные изображений?

Да, в патенте (Claim 9) упоминается возможность идентификации метаданных, связанных с выбранным изображением. Эти метаданные могут быть использованы для определения First Labels и уточнения контекста. Это подтверждает важность заполнения релевантных метаданных и использования микроразметки для изображений.

Что такое «Number of Entities» и почему это важно?

Number of Entities — это количество распознанных объектов или сущностей (например, продуктов, логотипов, достопримечательностей, людей) внутри одного изображения. В данном патенте это ключевой фактор для определения того, насколько изображение интересно пользователю (Image Confidence Score). Изображения с большим количеством сущностей получают приоритет при анализе контекста.

Может ли этот механизм использоваться для выполнения команд, а не только для поиска?

Да. Патент (Claim 7 и 8) описывает возможность генерации и выполнения команды (command) на основе анализа изображения и транскрипции. Команды могут включать сохранение изображения в памяти, загрузку его на сервер или импорт в приложение. Это показывает, что анализ визуального контекста используется не только для поиска информации, но и для управления устройством.

Влияет ли этот патент на ранжирование в веб-поиске?

Патент не описывает алгоритмы ранжирования. Он описывает механизм понимания запросов (Query Understanding) на основе визуального контекста. Однако, обеспечивая более точное понимание того, о чем спрашивает пользователь, этот механизм позволяет системам ранжирования лучше подобрать релевантный контент для ответа на уже уточненный запрос.

Похожие патенты

Как Google использует камеру и микрофон для понимания неоднозначных голосовых запросов (типа "что это?")
Google использует механизм мультимодального поиска, объединяющий данные с камеры и микрофона устройства. Если пользователь задает неоднозначный голосовой запрос (например, "Сколько это стоит?"), система распознает объект в поле зрения камеры и использует его название для уточнения запроса (например, "Сколько стоит [Распознанный Объект]?"), обеспечивая точный ответ.
  • US20150088923A1
  • 2015-03-26
  • Мультимедиа

  • Семантика и интент

Как Google использует изображения и видео на экране пользователя для уточнения неоднозначных поисковых запросов
Google может анализировать активные нетекстовые данные (изображения или видео), отображаемые на устройстве пользователя в момент ввода запроса. Если запрос неоднозначен (например, содержит местоимения или общие фразы), система извлекает из визуального контента сущности, текст (через OCR) или структурированные данные (QR-коды) и использует их для автоматической модификации запроса, чтобы лучше понять намерение пользователя и предоставить точные результаты или инициировать действия.
  • US9830391B1
  • 2017-11-28
  • Семантика и интент

  • Мультимедиа

  • Персонализация

Как Google агрегирует и ранжирует пользовательские метки для идентификации объектов в Визуальном поиске (Google Lens)
Google использует этот механизм для повышения точности идентификации объектов при поиске по изображению. Система находит множество визуально похожих изображений, загруженных пользователями (UGC), и анализирует их текстовые метки. Метки группируются по смыслу, а затем эти группы ранжируются на основе совокупной визуальной релевантности. Это позволяет определить наиболее вероятное название объекта, опираясь на коллективное мнение.
  • US9424279B2
  • 2016-08-23
  • Мультимедиа

  • Семантика и интент

  • SERP

Как Google переводит изображения в текстовые запросы, валидируя метки через веб-поиск
Google использует эту систему для определения наилучшего текстового описания (метки) для изображения. Система тестирует различные варианты меток, используя их как поисковые запросы, и проверяет, сколько результатов поиска указывают на веб-страницы, содержащие исходное изображение. Это гарантирует, что выбранная метка точно отражает то, как изображение используется и понимается в интернете.
  • US9218546B2
  • 2015-12-22
  • Мультимедиа

  • Семантика и интент

  • Индексация

Как Google комбинирует визуальное сходство и семантические метки для улучшения поиска по картинке (Visual Search)
Google использует систему поиска по изображению, которая сочетает анализ визуальных характеристик и семантических меток. Система генерирует высокоточные метки (High Confidence Labels) для изображения, анализируя текст, связанный с визуально похожими картинками в интернете. Затем она ранжирует кандидатов, используя модель визуального сходства, обученную на основе человеческих оценок, и применяет правила фильтрации для обеспечения однородности результатов.
  • US8429173B1
  • 2013-04-23
  • Семантика и интент

  • Мультимедиа

  • SERP

Популярные патенты

Как Google генерирует блок "Похожие вопросы" (People Also Ask) на основе анализа кликов и поведения пользователей
Google анализирует топовые результаты по исходному запросу и определяет "Тематические запросы" (Topic Sets) — прошлые запросы, по которым пользователи кликали на эти результаты. Затем система ищет популярные вопросы, соответствующие этим темам, фильтрует дубликаты на основе общности кликов и показывает их в блоке PAA для дальнейшего исследования темы.
  • US9213748B1
  • 2015-12-15
  • SERP

  • Семантика и интент

  • Поведенческие сигналы

Как Google использует связанные запросы и временный «бустинг» для обнаружения и тестирования релевантных документов, которые ранжируются низко
Патент описывает механизм улучшения поиска путем перемещения документов на более высокие позиции. Google идентифицирует документы, которые высоко ранжируются по связанным запросам (например, с синонимами, уточнениями или исправленными ошибками), но низко по исходному запросу, и повышает их. Цель — протестировать истинную релевантность этих документов и собрать пользовательский отклик (клики) для улучшения будущего ранжирования.
  • US8521725B1
  • 2013-08-27
  • Поведенческие сигналы

  • SERP

  • Семантика и интент

Как Google использует историю поиска, поведение и многофакторные профили пользователей для персонализации поисковой выдачи
Google создает детальные профили пользователей на основе истории запросов, взаимодействия с результатами (клики, время просмотра) и анализа контента посещенных страниц. Эти профили (включающие интересы по терминам, категориям и ссылкам) используются для корректировки стандартных оценок ранжирования. Степень персонализации динамически регулируется уровнем уверенности системы в профиле (Confidence Score).
  • US9298777B2
  • 2016-03-29
  • Персонализация

  • Поведенческие сигналы

  • SERP

Как Google определяет географическую релевантность сайта по локали ссылающихся на него ресурсов и их аудитории
Google использует географические сигналы ссылающихся сайтов для определения локальной релевантности целевого домена. Система анализирует контент, технические данные и, что важно, географию аудитории ссылающихся ресурсов, чтобы вычислить «Link Based Locale Score». Эта оценка комбинируется с собственными сигналами сайта и используется для повышения позиций в релевантных географических регионах.
  • US8788490B1
  • 2014-07-22
  • Local SEO

  • Ссылки

  • SERP

Как Google определяет свежесть документа, анализируя возраст ссылающихся страниц и динамику появления ссылок (Link Velocity)
Google использует методы для оценки свежести документа, когда дата его обновления неизвестна или ненадежна. Система анализирует даты обновления страниц, которые ссылаются на документ, а также историю появления и удаления этих ссылок (Link Velocity). Если на документ ссылаются недавно обновленные страницы или количество ссылок растет, он считается свежим.
  • US7797316B2
  • 2010-09-14
  • Свежесть контента

  • Ссылки

  • Техническое SEO

Как Google переносит авторитетность бренда и описательные термины между страницами одного сайта для улучшения ранжирования
Google использует механизмы для улучшения релевантности страниц путем переноса сигналов внутри сайта. Система распространяет "авторитетные" термины (например, бренд) с главной страницы на внутренние разделы и, наоборот, поднимает "высокоописательные" термины (например, адреса, категории, уникальные слова) с внутренних страниц на главную. Это позволяет ранжировать наиболее подходящую страницу сайта, даже если нужные ключевые слова на ней отсутствуют.
  • US7933890B2
  • 2011-04-26
  • Структура сайта

  • Техническое SEO

  • Индексация

Как Google использует последовательность кликов пользователей (Co-selection) для классификации изображений и фильтрации контента (SafeSearch)
Google анализирует, какие изображения пользователи выбирают последовательно в рамках одной сессии (co-selection). Если Изображение Б часто выбирается сразу после Изображения А (с известной темой), система присваивает Изображению Б ту же тему. Этот механизм использует графовый анализ поведения для уточнения тематики изображений, что критично для повышения релевантности и работы фильтров, таких как SafeSearch.
  • US8856124B2
  • 2014-10-07
  • Безопасный поиск

  • Поведенческие сигналы

  • Семантика и интент

Как Google определяет синонимы и варианты слов, анализируя категории выбранных пользователями результатов
Google использует метод стемминга, основанный на поведении пользователей и категориях сущностей. Если пользователи ищут разные слова (например, «пицца» и «пиццерия») и выбирают результаты одной категории («ресторан»), система идентифицирует эти слова как варианты одной основы (Stem Variants). Это происходит, если слова похожи по написанию ИЛИ если объем кликов статистически значим.
  • US9104759B1
  • 2015-08-11
  • Семантика и интент

  • Поведенческие сигналы

  • Персонализация

Как Google использует консенсус анкорных текстов для определения авторитетных источников и проверки фактов в Knowledge Graph
Google определяет, является ли веб-страница авторитетным источником о конкретной сущности (Entity), анализируя все анкорные тексты входящих ссылок. Система находит консенсусное описание (Center of Mass). Если оно совпадает с именем сущности и это имя присутствует в заголовке страницы, документ используется как эталон для проверки (Corroboration) фактов в базе знаний Google (Fact Repository).
  • US9208229B2
  • 2015-12-08
  • Knowledge Graph

  • Ссылки

  • EEAT и качество

Как Google ранжирует контент на других языках, основываясь на поведении пользователей с одинаковыми языковыми настройками
Google использует статистику кликов (CTR), сегментированную по языковым предпочтениям пользователей, для корректировки ранжирования. Если пользователи, предпочитающие язык X, часто кликают на результат на языке Y, этот результат будет повышен в выдаче для других пользователей с предпочтением языка X. Это позволяет ранжировать контент, популярный у определенной языковой группы, независимо от языка самого контента.
  • US8375025B1
  • 2013-02-12
  • Мультиязычность

  • Поведенческие сигналы

  • Персонализация

seohardcore