SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google использует поведенческие сигналы и контекст событий для обучения моделей целостному пониманию изображений

DIGITAL IMAGE CLASSIFICATION AND ANNOTATION (Классификация и аннотирование цифровых изображений)
  • US11836183B2
  • Google LLC
  • 2023-01-05
  • 2023-12-05
  • Поведенческие сигналы
  • Семантика и интент
  • Мультимедиа
  • Персонализация
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google использует анализ естественного языка (например, из Google Assistant) для определения значимых событий. Система анализирует поведенческие сигналы (время просмотра, редактирование, шеринг) и контент изображений, сделанных в этот период, чтобы автоматически аннотировать релевантные фотографии. Эти данные критически важны для обучения моделей машинного обучения целостному (holistic) пониманию контекста и тематики изображений, выходя за рамки простого распознавания объектов.

Описание

Какую проблему решает

Патент решает проблему ограничений традиционного распознавания объектов (object recognition), которое генерирует общие аннотации, лишенные персонального контекста (например, «торт» вместо «Третий день рождения Делии»). Изобретение направлено на автоматическое обогащение изображений контекстуальными аннотациями путем анализа сигналов, генерируемых пользователем (естественный язык и поведение), для улучшения организации и поиска в больших массивах цифровых изображений.

Что запатентовано

Запатентована система автоматического аннотирования цифровых изображений на основе идентификации значимых для пользователя событий. Система анализирует ввод на естественном языке (natural language input), часто направленный Автоматизированному Ассистенту (Automated Assistant), чтобы определить событие, дату и описательные токены. Затем она анализирует изображения, сделанные в эту дату, используя поведенческие сигналы (взаимодействие пользователя с изображением) и/или распознавание контента. Ключевым аспектом является использование этих аннотированных изображений как обучающих данных (training data) для machine learning models.

Как это работает

Система работает в несколько этапов:

  • Идентификация события: Анализируется natural language input (например, «Вчера Делия сделала первые шаги») для извлечения события, даты и токенов (tokens).
  • Отбор кандидатов: Идентифицируются изображения, снятые в указанную дату.
  • Анализ и Классификация: Изображения анализируются для определения связи с событием с использованием:
    • Поведенческих сигналов: Изучение записей о взаимодействии (record of user-controlled computing interactions). Изображения, которые дольше просматривали, редактировали или которыми делились, считаются более значимыми.
    • Распознавания контента: Выполнение image recognition processing для поиска связанных объектов, с возможным смещением (biasing) в сторону токенов события.
  • Аннотирование: Релевантные изображения помечаются токенами события в базе данных.
  • Обучение ML: Аннотированные изображения используются для обучения моделей (например, CNN) распознавать контекст изображений «целостно» (holistically).

Актуальность для SEO

Высокая. Понимание контекста изображений и использование ИИ являются ключевыми направлениями развития Google. Хотя патент фокусируется на персональных данных (Google Photos/Assistant), описанный механизм генерации обучающих данных для machine learning models имеет прямое отношение к улучшению технологий (таких как convolutional neural networks), используемых в публичном поиске изображений (Google Image Search).

Важность для SEO

Патент имеет важное стратегическое значение для SEO (7.5/10). Он не описывает алгоритм ранжирования веб-поиска, но раскрывает, как Google обучает свои модели пониманию изображений. Он демонстрирует переход от простого распознавания объектов к пониманию целостного контекста (holistic context) и подтверждает использование сигналов вовлеченности (engagement signals) для оценки значимости контента. Это критически важно для стратегии Image SEO.

Детальный разбор

Термины и определения

Automated Assistant (Автоматизированный ассистент)
Программное обеспечение (например, Google Assistant), обрабатывающее естественный язык для определения намерений пользователя.
Biased Image Recognition (Смещенное распознавание изображений)
Процесс распознавания, в котором приоритет отдается обнаружению объектов или сущностей, связанных с известным контекстом (например, поиск тортов, если контекст – день рождения).
Digital Images (Цифровые изображения)
Включает как статичные изображения, так и цифровое видео.
Event of Significance (Значимое событие)
Событие, связанное с пользователем, идентифицированное системой на основе natural language input.
Holistic Classification (Целостная классификация)
Метод классификации изображений на основе их общего тематического или контекстуального сходства с другими изображениями, а не только на основе распознанных объектов.
Latent Space Embeddings (Векторные представления в скрытом пространстве)
Векторные представления объектов, сгенерированные моделями (например, CNN). Используются для измерения семантического сходства между объектами на изображении и концепциями события.
Machine Learning Classifier (Классификатор машинного обучения)
Модель (например, CNN), обучаемая на аннотированных изображениях для распознавания контекста в новых изображениях.
Record of User-Controlled Computing Interactions (Запись о взаимодействиях пользователя)
Данные о том, как пользователь взаимодействовал с изображениями. Ключевые метрики: время отображения (amount of time displayed), мера манипуляции (measure of image manipulation – редактирование) и мера обмена (measure of sharing).
Tokens (Токены)
Слова или фразы, извлеченные из natural language input, которые описывают событие и используются для аннотирования.

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает метод классификации изображений, основанный на поведенческом сигнале (манипуляция изображением).

  1. Система получает natural language input, направленный automated assistant.
  2. Анализирует ввод для определения события, токенов и даты.
  3. Идентифицирует набор изображений, снятых в эту дату.
  4. Сравнивает степень манипуляции изображением (degree of image manipulation), примененную к каждому изображению через приложения для редактирования, относительно других изображений из набора.
  5. На основе этого сравнения классифицирует подмножество изображений как относящиеся к событию (те, которые больше редактировали).
  6. Сохраняет токены в ассоциации с этим подмножеством в поисковой базе данных.

Claim 3 и Claim 9 (Зависимые): Расширяют набор поведенческих сигналов.

  • Claim 3 добавляет measure of sharing (меру обмена).
  • Claim 9 добавляет сравнение amount of time displayed (времени отображения) на графических интерфейсах.

Это подтверждает использование сигналов вовлеченности (редактирование, обмен, просмотр) как метода классификации значимости контента.

Claim 8 (Зависимый): Добавляет анализ контента к основному методу.

  1. Система выполняет image recognition processing.
  2. Процесс распознавания смещается (biasing) в сторону распознавания токенов или связанных объектов.
  3. Классификация дополнительно основывается на идентифицированных объектах.

Claim 7 (Зависимый): Описывает конвейер обучения ML.

  1. Аннотированные изображения подаются на вход machine learning classifier.
  2. Выход сравнивается с токенами (метками) для генерации ошибки (error).
  3. Классификатор обучается на основе ошибки для улучшения классификации последующих изображений (целостная классификация).

Где и как применяется

Изобретение применяется в основном на этапах индексирования и в конвейере обучения ML, влияя на то, как Google понимает изображения.

INDEXING – Индексирование и извлечение признаков
Основной этап применения в контексте персональных данных (например, Google Photos). Система обрабатывает изображения и связанные с ними данные.

  • Извлечение Признаков: Извлекаются объекты с помощью Image Recognition Processing. Собираются и анализируются поведенческие данные (User-Controlled Computing Interactions).
  • NLP и Семантика: Анализируется Natural Language Input (например, из истории Assistant) для определения событий и токенов.
  • Аннотирование: Генерируются новые контекстуальные аннотации для изображений.

Стратегический слой: Конвейер обучения ML (ML Training Pipeline)
Наиболее значимое применение для SEO. Система генерирует высококачественные training data (изображения с контекстными метками). Эти данные используются для обучения моделей, которые впоследствии применяются на этапах Индексирования и Ранжирования публичного поиска (Google Images) для лучшего целостного понимания изображений.

RANKING – Ранжирование (Image Search)
Модели, обученные с помощью этого метода, используются для оценки релевантности и контекста изображений в публичном поиске.

Входные данные:

  • Ввод на естественном языке (Natural Language Input).
  • Цифровые изображения и метаданные (дата съемки).
  • Записи о взаимодействии пользователя с изображениями (просмотр, редактирование, шеринг).

Выходные данные:

  • Аннотации (токены), ассоциированные с изображениями.
  • Наборы обучающих данных для Machine Learning Models.

На что влияет

  • Типы контента: Цифровые изображения и видео.
  • Технологии машинного обучения: Патент напрямую влияет на то, как Google обучает модели (например, CNN) распознавать контекст и темы holistically — на основе общего сходства сцены, а не только отдельных объектов.
  • Специфические запросы: Улучшает понимание запросов, связанных с событиями, темами и контекстом, которые сложно определить только по визуальному содержанию.
  • Идентификация сущностей: В описании упоминается возможность использования технологии для идентификации лиц и присвоения имен анонимным кластерам лиц на основе контекста события.

Когда применяется

  • Триггеры активации: Получение Natural Language Input (например, через Assistant, социальные сети), из которого можно определить значимое событие и дату (в прошлом, настоящем или будущем).
  • Условия применения: Наличие цифровых изображений, снятых в указанную дату, и доступность записей о взаимодействии пользователя с ними или возможности выполнить распознавание контента.

Пошаговый алгоритм

Этап 1: Получение и анализ ввода

  1. Получение natural language input от пользователя.
  2. Анализ ввода (NLP) для определения: События, Даты и Описательных токенов.

Этап 2: Идентификация изображений-кандидатов

  1. Идентификация всех цифровых изображений, снятых в определенную Дату.

Этап 3: Анализ и классификация изображений (Выполняется одним или несколькими способами)

Вариант А: Анализ поведенческих сигналов

  1. Изучение записей о взаимодействии пользователя (User-Controlled Computing Interactions).
  2. Вычисление и сравнение метрик взаимодействия для каждого изображения: Время отображения, Мера манипуляции (редактирование), Мера обмена (шеринг).
  3. Классификация изображений с высокими показателями взаимодействия как связанных с событием.

Вариант Б: Анализ контента изображения

  1. Выполнение Image Recognition Processing.
  2. Смещение (Biasing) распознавания в сторону токенов события или связанных концепций из Knowledge Graph. Использование embeddings для оценки семантического сходства.
  3. Классификация изображений, содержащих релевантные объекты, как связанных с событием.

Вариант В: Комбинированный подход

  1. Расчет совокупной меры уверенности (aggregate measure of confidence) на основе сигналов из Вариантов А и Б.
  2. Если мера уверенности превышает порог (threshold), изображение классифицируется.

Этап 4: Аннотирование и хранение

  1. Сохранение токенов события в ассоциации с классифицированными изображениями в поисковой базе данных.

Этап 5: Обучение моделей (ML Training)

  1. Использование аннотированных изображений (вход) и токенов (метки) в качестве обучающих данных.
  2. Обучение Machine Learning Classifier на основе ошибки между выходом модели и метками для улучшения его способности к целостной классификации.

Какие данные и как использует

Данные на входе

Система использует комбинацию поведенческих, контентных и текстовых данных.

  • Поведенческие факторы (User Interaction): Критически важные данные.
    • Время просмотра: Как долго изображение отображалось (Amount of time displayed), включая кумулятивное время на разных устройствах и у разных пользователей.
    • Манипуляции: Данные о редактировании (Image manipulation) — фильтры, обрезка, зум.
    • Шеринг: Активность обмена изображением (Measure of sharing), включая количество отправок исходным пользователем и распространение среди других пользователей.
  • Контентные факторы (Image Content): Пиксельные данные изображений и видео, анализируемые с помощью Image Recognition Processing (включая распознавание объектов и лиц).
  • Текстовые факторы (NLP): Ввод на естественном языке, из которого извлекаются токены события.
  • Временные и Географические факторы: Метаданные изображений (дата, геотеги). Используются для фильтрации и анализа темпоральной и пространственной близости.

Какие метрики используются и как они считаются

  • Measure of Image Manipulation: Метрика, оценивающая степень редактирования изображения. Используется для сравнения относительной значимости изображений.
  • Measure of Sharing: Количественная оценка активности обмена изображением.
  • Amount of Time Displayed: Метрика времени просмотра.
  • Aggregate Measure of Confidence: Совокупная оценка, основанная на комбинации поведенческих и контентных сигналов.
  • Latent Space Similarity (Сходство в скрытом пространстве): Используется при смещенном распознавании. Измеряется расстояние между embeddings объектов на изображении и embeddings концепций, связанных с событием (например, с использованием Евклидова расстояния или косинусного сходства).
  • Пороговые значения (Thresholds): Используются для определения, достаточно ли высока мера уверенности для классификации.

Выводы

  1. Целостное понимание (Holistic Understanding) как цель: Ключевой вывод для SEO — Google активно обучает свои модели классифицировать изображения «целостно». Модели учатся распознавать тему или событие на основе общего визуального сходства с другими изображениями той же тематики, а не только по наличию конкретных объектов.
  2. Генерация обучающих данных (Training Data Pipeline): Патент раскрывает один из методов, как Google генерирует высококачественные, маркированные контекстом данные для обучения своих моделей ИИ, используя реальное поведение пользователей в своих продуктах.
  3. Поведенческие данные как сигнал значимости: Патент явно описывает использование поведенческих сигналов (просмотры, редактирование, шеринг) как индикаторов значимости и релевантности контента в заданном контексте. Это подтверждает важность вовлеченности (Engagement) для оценки контента.
  4. Синергия NLP и Computer Vision (Biased Recognition): Контекст, полученный из NLP, используется для активного «смещения» (bias) распознавания изображений и разрешения неоднозначностей. Это подчеркивает важность соответствия визуального контента и окружающего текста.
  5. Важность семантической связи: Система использует embeddings и Knowledge Graph для установления семантической связи между визуальными элементами (включая объекты и лица) и текстовыми концепциями.

Практика

Best practices (это мы делаем)

  • Оптимизация под контекст и тему (Holistic Relevance): Создавайте изображения, которые четко передают общую тему страницы. Убедитесь, что визуальная композиция соответствует тематике, которую Google может распознать целостно. Изображение должно визуально соответствовать другим изображениям этой темы в индексе Google.
  • Создание визуально вовлекающего контента (Engagement Signals): Патент подчеркивает, что вовлеченность является сигналом значимости. Для Image SEO это подтверждает важность создания высококачественных, уникальных изображений, которые пользователи захотят рассмотреть (время просмотра) или поделиться (шеринг).
  • Обеспечение семантического соответствия текста и изображения (Contextual Biasing): Убедитесь, что окружающий текст (заголовки, подписи, alt-текст, контент страницы) точно описывает контекст изображения. Текст задает контекст, который система будет пытаться подтвердить визуально, смещая распознавание в нужном направлении.
  • Использование уникальных изображений: Уникальные изображения, точно отражающие контекст контента, будут иметь преимущество перед общими стоковыми фото, так как они лучше соответствуют целостному пониманию темы и с большей вероятностью вызовут вовлеченность.

Worst practices (это делать не надо)

  • Использование общих стоковых фото без контекста: Использование стоковых изображений, слабо связанных с контекстом страницы, снижает вероятность их правильной целостной классификации и признания значимыми.
  • Несоответствие текста и изображения (Keyword Stuffing): Попытки манипулировать ранжированием путем добавления нерелевантных ключевых слов в alt-текст будут неэффективны. Системы ищут соответствие между текстовым контекстом и визуальным содержанием.
  • Игнорирование качества изображений: Размещение низкокачественных или непривлекательных изображений может привести к низкой вовлеченности, что интерпретируется как низкая значимость контента.
  • Визуальный Clickbait: Использование изображений, которые привлекают внимание, но не соответствуют контексту страницы. Системы, стремящиеся к целостному пониманию, могут распознать это несоответствие.

Стратегическое значение

Патент подтверждает стратегический переход Google от анализа отдельных объектов к пониманию сложных сцен и контекстов (Holistic Understanding). Для долгосрочной SEO-стратегии это означает, что инвестиции в создание уникального визуального контента, который точно отражает тематику сайта и вызывает вовлеченность пользователей, будут окупаться. Способность Google понимать изображения целостно снижает эффективность простых манипуляций и повышает требования к качеству и контекстуальной релевантности.

Практические примеры

Сценарий: Оптимизация изображений для статьи «Как собрать игровой компьютер» (Принцип целостного понимания и контекстуального смещения)

  1. Действие: Вместо общих фото компонентов, создайте серию уникальных фотографий процесса сборки: установка процессора в сокет, подключение кабелей к материнской плате, финальный вид собранной системы.
  2. Оптимизация: Убедитесь, что текст статьи (контекст) четко описывает процесс. Alt-текст и подписи должны соответствовать действию на фото (например, «Аккуратное подключение кабеля питания к видеокарте»).
  3. Ожидаемый результат: Система распознавания Google, смещенная контекстом статьи (NLP), правильно классифицирует эти изображения как высокорелевантные теме «сборка ПК». Модели, обученные целостному пониманию, распознают эти сцены как типичные для этой темы, улучшая видимость в Image Search.

Сценарий: Улучшение вовлеченности для E-commerce (Принцип сигналов значимости)

  1. Действие: На карточке товара (например, рюкзак для походов) разместите высококачественные фото деталей (качество швов, фурнитура) и фото рюкзака в использовании (в походе).
  2. Оптимизация: Используйте функционал галереи, позволяющий пользователям легко увеличивать (зум) и детально рассматривать изображения.
  3. Ожидаемый результат: Повышенная вовлеченность пользователей (время просмотра, использование зума) может служить сигналом значимости контента для поисковых систем (как показано в патенте на примере метрик time displayed и manipulation), потенциально улучшая ранжирование.

Вопросы и ответы

Описывает ли этот патент работу публичного Google Image Search или только персональных библиотек (Google Photos)?

Патент в первую очередь описывает механизм для аннотирования персональных фотографий. Однако он явно указывает (Claim 7), что эти аннотированные изображения используются для обучения общих моделей машинного обучения (machine learning classifiers). Эти обученные модели затем применяются для классификации других изображений, что означает, что технологии, улучшенные за счет этих данных, используются и в публичном поиске.

Что означает «целостная» (holistic) классификация изображений?

Целостная классификация означает, что система оценивает изображение не только по наличию отдельных объектов, но и по общему контексту или событию. Модель распознает тему на основе общего визуального сходства с другими изображениями той же тематики. Например, фото может быть распознано как «выпускной», даже если ключевые объекты (мантии) отсутствуют, но общая сцена похожа на другие фото выпускных.

Как поведенческие сигналы (просмотры, редактирование) влияют на классификацию?

Патент описывает их как ключевые индикаторы значимости изображения для пользователя. Если пользователь долго просматривал, редактировал или делился определенными фотографиями, снятыми в день значимого события, система классифицирует их как связанные с этим событием. Это основано на предположении, что пользователи уделяют больше внимания важному контенту.

Подтверждает ли это, что Google использует поведенческие факторы (например, CTR, время на сайте) в ранжировании веб-поиска?

Патент подтверждает, что Google технологически способен измерять и использовать детальные поведенческие сигналы (время просмотра, взаимодействие) для оценки значимости контента в закрытых экосистемах. Это усиливает понимание того, что вовлеченность пользователя (Engagement) является критически важным показателем качества для Google в целом, и логично предположить, что аналогичные метрики используются в веб-поиске.

Что такое «смещение» (biasing) распознавания изображений и как это влияет на SEO?

Смещение означает, что система активнее ищет определенные объекты, основываясь на внешнем контексте (например, тексте). Если текст задает тему, система будет искать визуальное подтверждение этой темы в изображении. Для SEO это критически важно: текст на странице должен точно соответствовать изображению, чтобы помочь системе правильно интерпретировать визуальный контент.

Как этот патент влияет на использование стоковых фотографий?

Патент косвенно снижает ценность общих стоковых фотографий. Поскольку система стремится к целостному пониманию контекста и ищет сигналы значимости, уникальные и контекстуально релевантные изображения будут иметь преимущество. Стоковые фото часто лишены уникального контекста и могут не соответствовать визуальным паттернам конкретной темы.

Что важнее для классификации согласно патенту: контент изображения или поведение пользователя?

Патент описывает оба подхода как валидные. Независимый пункт 1 фокусируется на поведении пользователя (манипуляции). Однако описание и другие пункты подчеркивают важность комбинированного подхода, где оба типа сигналов используются для расчета совокупной меры уверенности (aggregate measure of confidence).

Использует ли система распознавание лиц для аннотирования?

Да, в описании патента упоминается, что технологии могут использоваться для автоматического распознавания и тегирования людей. Если пользователь говорит: "Редмонд сделал свои первые шаги", система может проанализировать фото за этот день, идентифицировать повторяющееся лицо ребенка (даже если оно ранее было анонимным кластером) и присвоить ему идентификатор "Редмонд".

Как система использует Embeddings и Knowledge Graph в этом процессе?

Knowledge Graph помогает понять, какие объекты связаны с событием (например, торт связан с днем рождения). Embeddings используются для измерения семантического сходства. Система измеряет расстояние между векторным представлением объекта на фото и векторным представлением концепции события, чтобы определить релевантность.

Как обеспечить, чтобы мои изображения правильно классифицировались целостным образом?

Изображение должно визуально соответствовать общепринятым паттернам для вашей темы. Изучите, какие изображения уже ранжируются в Google Images по целевым запросам, и создавайте уникальный контент, который соответствует этому визуальному и тематическому кластеру. Обеспечьте также полное соответствие окружающего текста контексту изображения.

Похожие патенты

Как Google использует клики пользователей в поиске по картинкам для понимания содержания изображений и улучшения таргетинга
Google анализирует поведение пользователей в поиске по картинкам для идентификации содержания изображений. Если пользователи ищут определенный запрос (идею) и массово кликают на конкретное изображение в результатах, система связывает это изображение с данным запросом (концепцией). Эти данные используются для улучшения ранжирования в поиске картинок и для предложения релевантных ключевых слов рекламодателям, загружающим схожие изображения.
  • US11409812B1
  • 2022-08-09
  • Поведенческие сигналы

  • Семантика и интент

  • SERP

Как Google использует real-time анализ текста, аудио и изображений для автоматической генерации запросов и проактивного поиска
Система Google для анализа информации, захваченной из различных источников (вводимый текст, изображения документов, аудиопотоки) в реальном времени. Система автоматически распознает контент, выделяет ключевые фрагменты, формирует поисковые запросы и мгновенно предоставляет пользователю релевантный цифровой контент или связанные действия без явных запросов. Это механизм, лежащий в основе технологий визуального (Lens) и голосового поиска.
  • US8990235B2
  • 2015-03-24
  • Семантика и интент

  • Персонализация

  • Мультимедиа

Как Google использует визуальный анализ кликов по картинкам для понимания интента запроса и переранжирования выдачи
Google анализирует визуальное содержимое изображений, которые пользователи чаще всего выбирают в ответ на определенный запрос. На основе этого анализа (наличие лиц, текста, графиков, доминирующих цветов) система определяет категорию запроса (например, «запрос о конкретном человеке» или «запрос на определенный цвет»). Эти категории затем используются для переранжирования будущих результатов поиска, повышая изображения, которые визуально соответствуют выявленному интенту.
  • US9836482B2
  • 2017-12-05
  • Семантика и интент

  • Поведенческие сигналы

  • SERP

Как Google использует машинное зрение и исторические клики для определения визуального интента и ранжирования изображений
Google использует систему, которая определяет визуальное значение текстового запроса, анализируя объекты на картинках, которые пользователи выбирали ранее по этому или похожим запросам. Система создает набор «меток контента» (визуальный профиль) для запроса и сравнивает его с объектами, распознанными на изображениях-кандидатах с помощью нейросетей. Это позволяет ранжировать изображения на основе их визуального соответствия интенту пользователя.
  • US20200159765A1
  • 2020-05-21
  • Семантика и интент

  • Мультимедиа

  • Персонализация

Как Google использует клики пользователей для генерации альтернативных запросов и автоматической разметки изображений
Google анализирует исторические данные о том, какие запросы приводили к кликам по конкретному изображению. Эти запросы используются как автоматические метки (labels) для индексации и как предлагаемые альтернативные запросы при взаимодействии пользователя с этим изображением в выдаче. Система позволяет уточнять поиск на основе коллективного поведения и переносить метки между визуально похожими изображениями.
  • US20150161175A1
  • 2015-06-11
  • Индексация

  • Поведенческие сигналы

  • Семантика и интент

Популярные патенты

Как Google идентифицирует и верифицирует локальные бизнесы для показа карт и адресов в органической выдаче
Google использует этот механизм для улучшения органических результатов. Система определяет, связана ли веб-страница с одним конкретным бизнесом. Затем она верифицирует ее локальную значимость, проверяя, ссылаются ли на нее другие топовые результаты по тому же запросу. Если страница верифицирована, Google дополняет стандартную «синюю ссылку» интерактивными локальными данными, такими как адреса и превью карт.
  • US9418156B2
  • 2016-08-16
  • Local SEO

  • SERP

  • Ссылки

Как Google определяет географическую релевантность сайта по локали ссылающихся на него ресурсов и их аудитории
Google использует географические сигналы ссылающихся сайтов для определения локальной релевантности целевого домена. Система анализирует контент, технические данные и, что важно, географию аудитории ссылающихся ресурсов, чтобы вычислить «Link Based Locale Score». Эта оценка комбинируется с собственными сигналами сайта и используется для повышения позиций в релевантных географических регионах.
  • US8788490B1
  • 2014-07-22
  • Local SEO

  • Ссылки

  • SERP

Как Google использует реальные данные о скорости загрузки страниц (RUM) для повышения быстрых и понижения медленных сайтов в выдаче
Google собирает данные о времени загрузки страниц у реальных пользователей (RUM) и использует их для корректировки ранжирования. Система сравнивает скорость сайта с глобальными порогами, основанными на процентилях. Если сайт медленнее большинства других (например, медленнее 85% или 96%), его рейтинг понижается. Очень быстрые сайты могут получать повышение. Оценка скорости учитывает географию и тип устройства пользователя.
  • US8645362B1
  • 2014-02-04
  • Техническое SEO

  • Поведенческие сигналы

  • SERP

Как Google динамически перестраивает SERP в реальном времени, основываясь на взаимодействии пользователя с подзадачами
Google использует специализированные AI-модели для разбивки сложных запросов (задач) на подзадачи. Система отслеживает, с какими подзадачами взаимодействует пользователь, и динамически обновляет выдачу, подгружая больше релевантного контента для этой подзадачи прямо во время скроллинга страницы. Это позволяет уточнять интент пользователя в реальном времени.
  • US20250209127A1
  • 2025-06-26
  • SERP

  • Поведенческие сигналы

  • Семантика и интент

Как Google использует данные сессий и разнообразие результатов для генерации блока "Связанные запросы"
Google анализирует поисковые сессии пользователей, чтобы найти запросы, которые часто следуют за одним и тем же предшествующим запросом (родственные запросы). Затем система фильтрует эти потенциальные "Связанные запросы", чтобы убедиться, что они предлагают разнообразные результаты по сравнению с исходным запросом и другими предложениями, помогая пользователям исследовать смежные, но отличные темы.
  • US8244749B1
  • 2012-08-14
  • Семантика и интент

  • Персонализация

  • Поведенческие сигналы

Как Google использует распределение кликов в выдаче для определения брендовых (навигационных) и общих (тематических) запросов
Google анализирует поведение пользователей в поисковой выдаче для классификации интента запроса. Если клики сконцентрированы на одном результате (низкое разнообразие, высокая частота), запрос классифицируется как навигационный или брендовый (Data-Creator Targeting). Если клики распределены по разным сайтам, запрос считается общим (Content Targeting). Эта классификация используется для адаптации поисковой выдачи.
  • US20170068720A1
  • 2017-03-09
  • Семантика и интент

  • Поведенческие сигналы

  • SERP

Как Google ранжирует и рекомендует источники контента (каналы, профили) на основе внутренних ссылок, аннотаций и кликов по ним
Google использует механизм для ранжирования и рекомендации источников контента (например, YouTube-каналов или профилей) внутри платформ. Система анализирует, как часто источник упоминается в аннотациях, описаниях и комментариях к контенту, который просматривал пользователь. Ключевым фактором ранжирования является не только количество упоминаний, но и общее число кликов (активаций) по этим ссылкам.
  • US9235625B2
  • 2016-01-12
  • Ссылки

  • Поведенческие сигналы

  • Мультимедиа

Как Google использует повторные клики, прямой трафик и время на сайте для расчета оценки качества домена и корректировки ранжирования
Google анализирует поведение пользователей на уровне домена (группы ресурсов) для вычисления модификатора ранжирования. Ключевые метрики включают долю повторных кликов (Repeat Click Fraction), долю прямого трафика (Deliberate Visit Fraction) и среднюю продолжительность визита (Average Duration). Эти данные используются для корректировки исходных оценок страниц сайта, понижая ресурсы с низкими показателями пользовательской лояльности и вовлеченности.
  • US9684697B1
  • 2017-06-20
  • Поведенческие сигналы

  • SERP

Как Google использует внешние данные для оценки репутации сущностей и их взаимной привлекательности в вертикальном поиске
Google использует систему для улучшения вертикального поиска (например, вакансий, недвижимости) путем оценки взаимной привлекательности двух разных типов сущностей (например, соискателя и вакансии). Система агрегирует данные из внешних источников для выявления скрытых атрибутов и расчета «Репутационной значимости» каждой сущности. На основе этих данных определяется метрика «Двухстороннего соответствия», которая используется для ранжирования.
  • US10853432B2
  • 2020-12-01
  • Семантика и интент

  • SERP

  • Поведенческие сигналы

Как Google динамически формирует Панели Знаний, выбирая блоки информации на основе истории поисковых запросов пользователей
Google использует гибридный подход для создания структурированных страниц о сущностях (например, Панелей Знаний). Система анализирует исторические данные о том, что пользователи чаще всего ищут об этой сущности или её классе. На основе этого анализа динамически выбираются блоки информации (например, «Награды», «Саундтрек»), которые дополняют стандартный набор данных, позволяя автоматически адаптировать выдачу под актуальные интересы аудитории.
  • US10110701B2
  • 2018-10-23
  • Knowledge Graph

  • Поведенческие сигналы

  • Персонализация

seohardcore