SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google анализирует видеоконтент, прогнозирует поисковые намерения пользователей и динамически показывает поясняющие карточки сущностей

ENTITY CARDS INCLUDING DESCRIPTIVE CONTENT RELATING TO ENTITIES FROM A VIDEO (Карточки сущностей, включающие описательный контент, относящийся к сущностям из видео)
  • US12072934B2
  • Google LLC
  • 2022-12-30
  • 2024-08-27
  • Knowledge Graph
  • Семантика и интент
  • Мультимедиа
  • Персонализация
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google использует машинное обучение для анализа транскрипции видео и прогнозирования, какие сущности (термины, концепции, объекты) зрители, скорее всего, захотят поискать. Система автоматически генерирует информационные «Карточки сущностей», используя контент из внешних веб-источников, и синхронно показывает их в интерфейсе плеера в момент упоминания сущности в видео.

Описание

Какую проблему решает

Патент решает проблему понимания сложного или нового контента при просмотре видео. Когда пользователи сталкиваются с незнакомыми терминами или концепциями (сущностями), им приходится прерывать просмотр и вручную искать информацию. Это ухудшает пользовательский опыт, может приводить к ошибкам при вводе запроса и потенциально уводит пользователя с платформы. Изобретение направлено на улучшение понимания контента и удержание аудитории путем проактивного предоставления контекстной информации.

Что запатентовано

Запатентована система для автоматической идентификации и контекстного объяснения ключевых сущностей в видео. Система анализирует транскрипцию видео и использует Machine Learning Resource (Ресурс машинного обучения) для прогнозирования того, какие сущности пользователь с наибольшей вероятностью захочет изучить подробнее. Для этих сущностей генерируются Entity Cards (Карточки сущностей), которые синхронно отображаются в интерфейсе в момент упоминания сущности в видео.

Как это работает

Ключевой механизм включает несколько этапов:

  • Транскрипция: Видео обрабатывается для получения текстовой расшифровки (transcription), например, с помощью ASR.
  • Извлечение сущностей: Текст связывается с Knowledge Graph для идентификации кандидатов-сущностей.
  • Прогнозирование (ML): Модель машинного обучения, обученная на реальных данных о том, что пользователи ищут после просмотра видео (observational data), ранжирует сущности по вероятности того, что они вызовут интерес.
  • Генерация карточек: Для топовых сущностей создаются Entity Cards, содержащие описание и/или изображение, полученное из внешних источников (External Content).
  • Синхронное отображение: Когда сущность упоминается в видео, соответствующая карточка отображается рядом с видеоплеером без прерывания просмотра.

Актуальность для SEO

Крайне высокая. Патент подан в конце 2022 года и опубликован в 2024. Он отражает современные тенденции в области глубокого понимания видеоконтента, интеграции с Knowledge Graph и использования предиктивного ML для улучшения пользовательского опыта на видеоплатформах (например, YouTube).

Важность для SEO

Влияние на SEO высокое (85/100). Патент критически важен для Video SEO и Entity-Based SEO. Во-первых, он детально раскрывает, как Google идентифицирует и ранжирует наиболее важные сущности внутри видео (факторы салиентности). Во-вторых, он открывает новый канал видимости: возможность для веб-сайтов стать источником контента (External Content) для Entity Cards внутри видеоинтерфейса, что подчеркивает важность создания авторитетных определений сущностей.

Детальный разбор

Термины и определения

Entity (Сущность)
Концепция, термин, тема, объект, событие или персона, упомянутые в видео и идентифицируемые в Knowledge Graph.
Entity Card (Карточка сущности)
Элемент пользовательского интерфейса, содержащий описательный контент (descriptive content) о конкретной сущности (текстовое резюме, изображение, атрибуция источника).
External Content (Внешний контент)
Источники информации (веб-страницы, сервисы), используемые для наполнения Entity Cards.
Knowledge Graph (Граф знаний)
Структурированная база данных сущностей и связей. Используется для идентификации кандидатов в сущности из текста транскрипции.
Machine Learning Resource (Ресурс машинного обучения)
Модель ML, используемая для прогнозирования того, какие сущности пользователь с наибольшей вероятностью будет искать (most likely to be searched for).
Observational Data (Данные наблюдений)
Данные о реальном поведении пользователей, в частности, поисковые запросы, которые пользователи выполняют в ответ на просмотр видео. Используются для обучения ML-модели.
tf-idf (Term Frequency-Inverse Document Frequency)
Статистическая мера, используемая в патенте для оценки "широты" (broadness) сущности в контексте корпуса видео.
Transcription (Транскрипция)
Текстовая расшифровка аудиодорожки видео, часто получаемая с помощью автоматического распознавания речи (ASR).

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает основной метод работы серверной системы.

  1. Получение транскрипции контента из видео.
  2. Применение Machine Learning Resource для идентификации сущностей, которые пользователь с наибольшей вероятностью будет искать, основываясь на транскрипции.
  3. Генерация Entity Cards для этих сущностей.
  4. Предоставление пользовательского интерфейса (UI), который воспроизводит видео на первой части экрана И, когда сущность упоминается в видео, отображает соответствующую Entity Card на второй части экрана.

Claim 2 (Зависимый от 1): Детализирует обучение модели ML.

Обучение Machine Learning Resource происходит на основе observational data о пользователях, выполняющих поиск в ответ на просмотр видео. Система учится на реальном поведении пользователей.

Claim 3 (Зависимый от 2): Детализирует процесс идентификации и ранжирования сущностей.

  1. Идентификация кандидатов путем связывания текста транскрипции с Knowledge Graph.
  2. Ранжирование кандидатов на основе одного или нескольких факторов:
    • Релевантность сущности теме видео.
    • Релевантность сущности другим кандидатам-сущностям в видео (взаимосвязь).
    • Количество упоминаний сущности в видео.
    • Количество видео в корпусе, в которых появляется эта сущность (широта/уникальность).

Claim 4 (Зависимый от 3): Описывает механизм обратной связи для ML.

Процесс включает оценку взаимодействий пользователя с UI (например, клики на карточки) и определение корректировок для Machine Learning Resource на основе этой оценки. Система самосовершенствуется.

Claim 5 (Зависимый от 1): Уточняет синхронизацию.

Сущность упоминается в момент времени (timepoint), и Entity Card отображается именно в этот момент времени.

Claim 10 (Независимый пункт): Описывает альтернативный метод, выполняемый на пользовательском устройстве (Client-side).

Устройство получает видео и реализует Machine Learning Resource (локально или через API) для идентификации сущностей и генерации Entity Card, а затем отображает их синхронно. Это указывает на возможность как серверной, так и клиентской реализации.

Где и как применяется

Изобретение затрагивает этапы индексирования контента и генерации пользовательского интерфейса на видеоплатформе.

INDEXING – Индексирование и извлечение признаков
Основная работа по анализу контента происходит на этом этапе (офлайн):

  • Транскрипция: Выполняется ASR для получения текста.
  • NLP и Семантика: Текст обрабатывается для извлечения сущностей и их привязки к Knowledge Graph.
  • Вычисление сигналов: Рассчитываются признаки для ранжирования сущностей (tf-idf, релевантность теме и т.д.).
  • ML-прогнозирование: Machine Learning Resource (предварительно обученный на observational data) определяет наиболее значимые сущности.
  • Генерация карточек: Система извлекает данные из External Content для формирования Entity Cards.

QUNDERSTANDING – Понимание Запросов (Косвенно)
Система анализирует прошлые запросы пользователей (observational data), связанные с просмотром видео, для обучения ML-модели. Это процесс понимания того, как видеоконтент порождает информационные потребности.

METASEARCH / RERANKING (Генерация UI)
На этапе предоставления контента пользователю система генерирует финальный интерфейс, объединяя видеопоток и динамически отображаемые Entity Cards. Происходит синхронизация показа карточек с таймкодами.

Входные данные:

  • Видеоконтент (аудиодорожка).
  • Knowledge Graph.
  • Логи поисковых запросов пользователей (observational data).
  • Корпус видео (для расчета tf-idf).
  • External Content (источники для описаний сущностей).

Выходные данные:

  • Набор ранжированных ключевых сущностей для видео.
  • Сгенерированные Entity Cards с описательным контентом.
  • Пользовательский интерфейс, объединяющий видео и синхронизированные Entity Cards.

На что влияет

  • Конкретные типы контента: В первую очередь влияет на видеоконтент, особенно образовательный, документальный, технический или любой контент с высокой плотностью сущностей (терминов, имен, концепций), которые могут быть незнакомы зрителю.
  • Взаимодействие с Веб-контентом: Влияет на веб-страницы, которые служат источником информации для Entity Cards. Авторитетные сайты получают новый канал видимости.
  • Пользовательский опыт (UX): Направлено на повышение вовлеченности и времени просмотра за счет улучшения понимания контента и удержания пользователя на платформе.

Когда применяется

  • Триггеры активации: Система активируется для видео, для которых были идентифицированы значимые сущности (прошедшие порог прогнозирования ML-модели).
  • Временные рамки: Отображение Entity Card происходит в реальном времени, синхронно с моментом упоминания сущности в видео (timepoint).
  • Обновление модели: ML-модель периодически обновляется на основе новых данных о поведении пользователей и взаимодействии с карточками (обратная связь).

Пошаговый алгоритм

Процесс А: Обработка видео и генерация Entity Cards (Офлайн/Индексация)

  1. Получение транскрипции: Система выполняет ASR для создания текстовой транскрипции видео.
  2. Извлечение кандидатов: Текст транскрипции ассоциируется с Knowledge Graph для получения коллекции сущностей-кандидатов.
  3. Сбор обучающих данных (Фоновый процесс): Система анализирует observational data (реальные поисковые запросы пользователей при просмотре видео) для обучения Machine Learning Resource.
  4. Расчет сигналов ранжирования: Для каждой сущности-кандидата вычисляются веса на основе сигналов (релевантность теме, релевантность другим сущностям, количество упоминаний, широта/tf-idf).
  5. Применение ML-модели и Ранжирование: Модель оценивает и ранжирует сущности-кандидаты по вероятности поиска.
  6. Выбор сущностей: Выбираются сущности с наивысшим рейтингом.
  7. Генерация Entity Cards: Для выбранных сущностей извлекается описательный контент из External Content и формируются Entity Cards.

Процесс Б: Отображение Entity Cards (Реальное время)

  1. Предоставление UI: Система предоставляет пользовательский интерфейс для воспроизведения видео.
  2. Воспроизведение и Мониторинг таймкодов: Видео воспроизводится, система отслеживает текущее время.
  3. Отображение карточки: Когда сущность упоминается, система отображает соответствующую Entity Card во второй части интерфейса, продолжая воспроизведение видео.
  4. Управление отображением: Система может использовать разные варианты UI (автоматический показ, уведомления, сжатые/развернутые карточки).
  5. Сбор обратной связи: Система регистрирует взаимодействия пользователя с Entity Cards для последующей корректировки Machine Learning Resource (Claim 4).

Какие данные и как использует

Данные на входе

Патент фокусируется на использовании следующих типов данных:

  • Контентные факторы (Видео): Аудиодорожка видео, преобразуемая в транскрипцию.
  • Контентные факторы (Веб): Текст и изображения с внешних сайтов (External Content) для наполнения карточек.
  • Поведенческие факторы (Логи запросов): Observational data — логи реальных поисковых запросов, связанных с просмотром видео. Используются для обучения ML-модели.
  • Поведенческие факторы (Взаимодействие с UI): Данные о взаимодействии с Entity Cards (клики, игнорирование). Используются для корректировки ML-модели.
  • Структурные данные (Knowledge Graph): Используются для идентификации и disambiguation сущностей.
  • Корпусные данные: Статистика по частоте сущностей во всем корпусе видео (для расчета tf-idf).

Какие метрики используются и как они считаются

Система использует Machine Learning Resource для ранжирования сущностей. Ключевые сигналы, используемые для ранжирования (Claim 3):

  • Relevance to Topic (Релевантность теме): Метрика, оценивающая связь сущности с основной темой видео (упоминается query-based salient term signal).
  • Relevance to Other Entities (Взаимосвязь сущностей): Метрика, оценивающая релевантность сущности другим сущностям в видео.
  • Number of Mentions (Частота упоминаний): Количество упоминаний сущности в транскрипции.
  • Broadness/Corpus Frequency (Широта/Частота в корпусе): Метрика, оценивающая уникальность сущности. Используется сигнал типа tf-idf. Более уникальные сущности могут получить больший вес.
  • Probability of Search (Вероятность поиска): Итоговая оценка, генерируемая ML-моделью на основе всех сигналов и обучающих данных.

Выводы

  1. Прогнозирование поискового интента на основе потребляемого контента: Ключевая инновация — использование ML для предсказания того, что пользователь захочет искать, основываясь на видеоконтенте, который он потребляет в данный момент.
  2. Обучение на реальном поведении (Observational Data): Модель обучается не на гипотезах, а на реальных поисковых запросах пользователей, связанных с просмотром видео. Это обеспечивает высокую точность определения важных моментов.
  3. Комплексное ранжирование сущностей (Салиентность): Выбор сущностей основан на многофакторном анализе: семантическая близость к теме, взаимосвязь сущностей, частота упоминаний и уникальность (tf-idf). Это детальный взгляд на то, как Google определяет значимость сущностей в контенте.
  4. Новый канал видимости для веб-контента: Патент описывает извлечение контента с веб-сайтов (External Content) для отображения в Entity Cards. Это создает новую возможность для SEO по оптимизации контента для появления в этих карточках (аналог Featured Snippets для видео).
  5. Важность Knowledge Graph для мультимедиа: Патент подтверждает, что Knowledge Graph является центральным элементом для понимания видеоконтента через его транскрипцию.
  6. Обратная связь для улучшения ML: Система использует взаимодействие пользователей с Entity Cards как сигнал для постоянного улучшения и корректировки модели прогнозирования (Claim 4).

Практика

Best practices (это мы делаем)

  • Оптимизация веб-контента под Entity Cards (Стратегия источника): Создавайте на своем сайте качественный, авторитетный контент с четкими и краткими определениями ключевых сущностей вашей ниши. Этот контент может быть извлечен системой для наполнения Entity Cards, повышая видимость вашего ресурса. Используйте структурированное изложение и микроразметку.
  • Оптимизация видео для ASR и извлечения сущностей (VSEO): Обеспечивайте высокое качество аудио и четкую дикцию. Это необходимо для точной транскрипции (ASR). Ясно проговаривайте ключевые термины и имена, используя общепринятую терминологию, присутствующую в Knowledge Graph.
  • Усиление салиентности сущностей в видео: Чтобы повысить вероятность выбора сущности системой, следуйте принципам из патента (Claim 3): тесно связывайте сущности с основной темой видео (Relevance to topic), раскрывайте их взаимосвязи с другими сущностями (Relevance to other entities) и упоминайте их достаточно часто (Number of mentions).
  • Укрепление присутствия в Knowledge Graph: Работайте над тем, чтобы ваш бренд, продукты или эксперты были четко представлены в Knowledge Graph. Это увеличивает вероятность их корректной идентификации в видеоконтенте.
  • Фокус на специфичности контента: Сосредоточьтесь на глубоком раскрытии специфичных сущностей. Система учитывает "широту" (Broadness) с помощью tf-idf, поэтому проработка уникальных аспектов темы более выгодна.

Worst practices (это делать не надо)

  • Игнорирование качества звука и транскрипции: Видео с плохим звуком или неразборчивой речью будут некорректно транскрибированы, что приведет к ошибкам в идентификации сущностей.
  • Создание размытых определений на сайте: Избегайте длинных или неоднозначных описаний сущностей. Система ищет краткие и ясные ответы для использования в Entity Cards.
  • Переоптимизация и неестественное упоминание сущностей (Entity Stuffing в аудио): Попытки манипулировать системой путем неестественного повторения терминов вряд ли будут успешными, так как модель учитывает комплексные сигналы релевантности и уникальности, а не только частоту.
  • Использование узкого жаргона, отсутствующего в KG: Если система не может связать термин с Knowledge Graph, она не сможет его обработать в рамках данного механизма.

Стратегическое значение

Патент подтверждает стратегический курс Google на семантический анализ любого типа контента и переход к проактивному предоставлению информации. Для SEO это означает, что оптимизация видео должна строиться на сущностях и их связях, а не только на метаданных. Долгосрочная стратегия должна включать синергию между видеопродакшеном и веб-контентом, направленную на то, чтобы стать авторитетным источником знаний (и, следовательно, источником для Entity Cards) по ключевым сущностям в нише.

Практические примеры

Сценарий 1: Оптимизация веб-страницы для появления в Entity Card

  1. Задача: Стать источником определения для термина "Квантовое превосходство" (Quantum Supremacy) в видео по физике.
  2. Действия: На авторитетном сайте создать страницу о термине. Разместить в начале краткое, четкое определение (40-60 слов), оптимизированное под Featured Snippet. Добавить релевантное изображение и применить микроразметку.
  3. Результат: Когда система Google анализирует видео, упоминающее "Квантовое превосходство", она может извлечь определение с оптимизированной страницы для отображения в Entity Card.

Сценарий 2: Оптимизация образовательного видео

  1. Задача: Создать видео о "Core Web Vitals", чтобы система идентифицировала ключевые метрики.
  2. Действия: Обеспечить студийное качество звука. Четко проговорить термины LCP, FID, CLS. В сценарии раскрыть связь между ними и общей темой производительности сайта. Упомянуть каждую метрику несколько раз в разных контекстах.
  3. Результат: Система корректно транскрибирует речь, идентифицирует LCP, FID, CLS как ключевые сущности (высокая релевантность, частота, специфичность). При просмотре пользователи увидят информационные карточки для этих терминов, что улучшит понимание и вовлеченность.

Вопросы и ответы

Как система определяет, какие сущности являются наиболее важными в видео?

Ключевой механизм — это модель машинного обучения (Machine Learning Resource), обученная на реальных данных о том, что пользователи ищут во время или после просмотра видео (observational data). Дополнительно модель учитывает факторы из Claim 3: релевантность теме видео, связь с другими сущностями, количество упоминаний и уникальность термина (tf-idf).

Откуда берется контент для Entity Cards?

Контент извлекается из External Content — внешних веб-сайтов или сервисов, предоставляющих сводки по темам. Это аналогично формированию Featured Snippets. Для SEO это создает возможность стать источником для этих карточек, предоставляя четкие и авторитетные определения на своем сайте.

Какую роль играет Knowledge Graph в этом процессе?

Knowledge Graph играет центральную роль на этапе идентификации (Claim 3). Система анализирует транскрипцию видео и должна связать текстовые упоминания с конкретными узлами в Графе Знаний. Если сущности нет в KG, она не может быть обработана этой системой.

Насколько важна точность автоматической транскрипции (ASR)?

Точность транскрипции критически важна, так как весь процесс анализа основан на тексте (Claim 1). Ошибки в ASR из-за плохого качества звука или нечеткой речи приведут к невозможности корректной идентификации сущностей. Поэтому качество аудио и четкость дикции являются важными факторами оптимизации видео.

Что означает сигнал "широты" (Broadness) сущности и как используется tf-idf?

Этот сигнал помогает отличить общие термины от специфичных. tf-idf используется для оценки уникальности сущности для данного видео по сравнению со всем корпусом видео. Если термин встречается очень часто во многих видео (например, "технология"), он считается "широким" и может получить меньший вес при финальном ранжировании.

Может ли этот механизм помочь моему сайту получить больше трафика?

Влияние двоякое. Это может снизить трафик по простым информационным запросам, так как ответ дается прямо в видео (аналог Zero-Click). Однако, если ваш сайт используется как источник для Entity Card (с атрибуцией), это повышает узнаваемость бренда, экспертность и может привести к более квалифицированному трафику.

Может ли система ошибаться в выборе сущностей и как она исправляется?

Да, но патент предусматривает механизм обратной связи (Claim 4). Система отслеживает взаимодействие пользователей с Entity Cards (клики или игнорирование). Эти данные используются для корректировки Machine Learning Resource и улучшения точности выбора сущностей в будущем.

Карточки показываются автоматически или пользователь должен их активировать?

Патент описывает оба варианта. Карточки могут отображаться автоматически и синхронно (Claim 1, 5). Также они могут отображаться в сжатом виде заранее (Claim 6). Альтернативно, система может показать только уведомление (notification user interface element), и карточка откроется только по клику пользователя (Claim 8).

Происходит ли анализ видео в реальном времени, когда пользователь его смотрит?

В основном сценарии (Claim 1, серверная реализация) анализ и генерация карточек происходят заранее (офлайн), на этапе индексирования. Во время просмотра происходит только синхронизация. Однако патент также описывает альтернативный вариант (Claim 10), где анализ может выполняться непосредственно на устройстве пользователя.

Влияет ли этот патент на ранжирование видео в поиске Google или YouTube?

Напрямую патент описывает функцию интерфейса плеера. Однако он раскрывает, как Google анализирует и понимает содержание видео на уровне сущностей и их значимости. Такое глубокое понимание контента, несомненно, используется и в алгоритмах ранжирования. Кроме того, улучшение поведенческих факторов за счет этой функции может косвенно улучшить ранжирование.

Похожие патенты

Как Google использует изображения и видео на экране пользователя для уточнения неоднозначных поисковых запросов
Google может анализировать активные нетекстовые данные (изображения или видео), отображаемые на устройстве пользователя в момент ввода запроса. Если запрос неоднозначен (например, содержит местоимения или общие фразы), система извлекает из визуального контента сущности, текст (через OCR) или структурированные данные (QR-коды) и использует их для автоматической модификации запроса, чтобы лучше понять намерение пользователя и предоставить точные результаты или инициировать действия.
  • US9830391B1
  • 2017-11-28
  • Семантика и интент

  • Мультимедиа

  • Персонализация

Как Google использует Vision-Language и Генеративные модели для анализа ключевых кадров видео и ответов на вопросы пользователей
Google разработал систему для эффективного понимания содержания видео. Вместо анализа каждого кадра система выбирает ключевые кадры и использует Vision-Language Model для создания их текстового описания. Когда пользователь задает вопрос о видео, система объединяет запрос с этими описаниями и использует генеративную модель (LLM) для формирования точного ответа в реальном времени.
  • US20250190488A1
  • 2025-06-12
  • Мультимедиа

  • Семантика и интент

Как Google автоматически понимает контекст запросов, заданных во время просмотра видео, используя временные метки и анализ N-грамм
Google использует систему для автоматического уточнения запросов, заданных во время просмотра мультимедиа (например, «Кто это?»). Система определяет сущности (людей, объекты), присутствующие на экране в момент запроса, используя временные метки и анализ истории поисковых запросов (N-грамм). Затем она переписывает запрос, добавляя релевантный контекст, чтобы предоставить точный ответ без прерывания просмотра.
  • US9852188B2
  • 2017-12-26
  • Мультимедиа

  • Семантика и интент

  • SERP

Как Google использует анализ видео и аудио для построения графов зависимостей между эпизодами сериализованного контента
Google анализирует медиаконтент (например, эпизоды сериалов или обучающих курсов), чтобы автоматически понять, какие эпизоды связаны между собой. Изучая фрагменты повторов, транскрипты и визуальные элементы (включая распознавание лиц), система строит «Граф Зависимостей». Это позволяет рекомендовать пользователям необходимые для понимания предыдущие эпизоды, улучшая организацию и потребление сериализованного контента.
  • US9558407B1
  • 2017-01-31
  • Мультимедиа

  • Семантика и интент

  • Персонализация

Как Google динамически выбирает лучший кадр из видео (thumbnail) и точку воспроизведения под конкретный запрос пользователя
Google использует систему для динамического выбора thumbnail для видео в результатах поиска. Система анализирует запрос пользователя и содержание каждого кадра видео, преобразуя их в числовые векторы в общем семантическом пространстве. Кадр, наиболее близкий по смыслу к запросу, выбирается в качестве репрезентативного (thumbnail). Ссылка в выдаче может вести непосредственно к этому моменту в видео (Deep Linking).
  • US20160378863A1
  • 2016-12-29
  • Семантика и интент

  • Мультимедиа

  • Индексация

Популярные патенты

Как Google автоматически определяет важность различных частей веб-страницы (DOM-узлов) для ранжирования
Google анализирует коллекции похожих структурированных документов (например, товарных карточек) и создает общую модель (DOM). Затем система изучает логи запросов и кликов, чтобы понять, какие части структуры (заголовки, основной контент, реклама) чаще всего содержат ключевые слова из успешных запросов. Этим частям присваивается больший вес при расчете релевантности.
  • US8538989B1
  • 2013-09-17
  • Семантика и интент

  • Индексация

  • Структура сайта

Как Google консолидирует сигналы ранжирования между мобильными и десктопными версиями страниц, используя десктопный авторитет для мобильного поиска
Патент Google описывает механизм для решения проблемы недостатка сигналов ранжирования в мобильном вебе. Система идентифицирует корреляцию между мобильной страницей и её десктопным аналогом. Если мобильная версия недостаточно популярна сама по себе, она наследует сигналы ранжирования (например, обратные ссылки и PageRank) от авторитетной десктопной версии, улучшая её позиции в мобильном поиске.
  • US8996514B1
  • 2015-03-31
  • Техническое SEO

  • Ссылки

Как Google в Autocomplete динамически выбирает между показом общих категорий и конкретных подсказок в зависимости от «завершенности запроса»
Google анализирует «меру завершенности запроса» (Measure of Query Completeness) по мере ввода текста пользователем. Если намерение неясно и существует много вариантов продолжения (низкая завершенность, высокая энтропия), система предлагает общие категории (например, «Регионы», «Бизнесы»). Если намерение становится ясным (высокая завершенность, низкая энтропия), система переключается на конкретные подсказки или сущности.
  • US9275147B2
  • 2016-03-01
  • Семантика и интент

  • Поведенческие сигналы

  • Персонализация

Как Google динамически перестраивает SERP в реальном времени, основываясь на взаимодействии пользователя с подзадачами
Google использует специализированные AI-модели для разбивки сложных запросов (задач) на подзадачи. Система отслеживает, с какими подзадачами взаимодействует пользователь, и динамически обновляет выдачу, подгружая больше релевантного контента для этой подзадачи прямо во время скроллинга страницы. Это позволяет уточнять интент пользователя в реальном времени.
  • US20250209127A1
  • 2025-06-26
  • SERP

  • Поведенческие сигналы

  • Семантика и интент

Как Google извлекает готовые ответы из авторитетных источников для формирования Featured Snippets
Google использует систему для предоставления прямых ответов на естественном языке (в виде абзацев или списков) на запросы с четким намерением. Система заранее анализирует авторитетные источники, извлекает пары «заголовок-текст», соответствующие популярным шаблонам вопросов, и сохраняет их в специальной базе данных. При получении соответствующего запроса система извлекает готовый ответ из этой базы и отображает его в выдаче.
  • US9448992B2
  • 2016-09-20
  • Семантика и интент

  • EEAT и качество

  • Индексация

Как Google использует вовлеченность пользователей на связанных страницах (Reachability Score) для ранжирования основного документа
Google рассчитывает «Оценку Достижимости» (Reachability Score), анализируя, как пользователи взаимодействуют со страницами, на которые ссылается основной документ (внутренние и исходящие ссылки). Если пользователи активно переходят по этим ссылкам (высокий CTR) и проводят время на целевых страницах (высокое время доступа), основной документ получает повышение в ранжировании. Этот механизм измеряет потенциальную глубину и качество пользовательской сессии.
  • US8307005B1
  • 2012-11-06
  • Поведенческие сигналы

  • Ссылки

  • SERP

Как Google использует социальный граф и активность друзей для персонализации и переранжирования результатов поиска
Google использует данные из социального графа пользователя и активность его контактов (лайки, шеры, комментарии, плейлисты) для изменения ранжирования результатов поиска. Контент, одобренный социальным окружением, повышается в выдаче и сопровождается аннотациями, объясняющими причину повышения и указывающими на свежесть социального действия.
  • US8959083B1
  • 2015-02-17
  • Персонализация

  • Поведенческие сигналы

  • SERP

Как Google снижает влияние ссылок с аффилированных сайтов и PBN для борьбы с манипуляциями в ранжировании
Патент Google описывает систему ранжирования, которая идентифицирует группы сайтов под общим контролем (аффилированные узлы или PBN). Система резко снижает вес ссылок внутри такой группы и ограничивает общее влияние группы на другие сайты, учитывая только одну, самую сильную ссылку от всей группы. Также описывается механизм "Доверенных авторитетов", чьи ссылки передают максимальный вес независимо от количества исходящих ссылок.
  • US8719276B1
  • 2014-05-06
  • Антиспам

  • Ссылки

  • Техническое SEO

Как Google генерирует «синтетический анкорный текст», анализируя структуру и контекст ссылающихся страниц
Google анализирует структурно похожие страницы, ссылающиеся на различные ресурсы. Определяя, где известные поисковые запросы (Seed Queries) появляются в структуре этих ссылающихся страниц (например, в заголовках или Title), Google создает шаблоны. Эти шаблоны затем используются для извлечения текста из аналогичных мест на других страницах, создавая «синтетический описательный текст» (аналог анкорного текста) для целевых ресурсов. Это улучшает ранжирование, даже если фактический анкорный текст низкого качества.
  • US9208232B1
  • 2015-12-08
  • Ссылки

  • Структура сайта

  • Семантика и интент

Как Google использует личные данные пользователя (User Model) для понимания его намерений и персонализации выдачи
Google создает персональную модель пользователя (User Model) на основе его личного контента (письма, контакты, документы). Эта модель используется для определения неявного намерения пользователя (личный поиск или общий) и для аннотирования запроса контекстом из личных данных, чтобы предоставить точные персонализированные результаты.
  • US20150012558A1
  • 2015-01-08
  • Персонализация

  • Семантика и интент

  • Поведенческие сигналы

seohardcore