SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google автоматически определяет и отображает ключевые моменты (Key Moments) в видео для улучшения навигации

VIDEO TIMED ANCHORS (Временные анкоря для видео)
  • US20240046964A1
  • Google LLC
  • 2023-10-17
  • 2024-02-08
  • Мультимедиа
  • Семантика и интент
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google использует систему для анализа видеоконтента с помощью текстовых, визуальных и аудиосигналов. Система определяет "ключевые моменты" (salient topics), генерирует для них текстовые метки и интеллектуально выбирает наиболее релевантные стоп-кадры. Эти "временные анкоря" (Video Timed Anchors) позволяют пользователям понять структуру видео и перейти к интересующему сегменту прямо из поиска или плеера.

Описание

Какую проблему решает

Патент решает проблему сложности навигации и быстрого ознакомления («сканирования») видеоконтента по сравнению с текстом. Пользователям трудно найти конкретную информацию внутри видео без его полного просмотра или ручной перемотки. Изобретение улучшает пользовательский опыт, предоставляя обзор содержания видео и возможность быстрого перехода к интересующим сегментам (key moments), что также экономит сетевые ресурсы.

Что запатентовано

Запатентована система автоматической генерации и отображения временных анкорей для видео (Video Timed Anchors), известных как «Key Moments». Система идентифицирует ключевые моменты в видео на основе критериев интереса (interest criteria), которые определяют значимые темы (salient topics). Для каждого момента генерируется текстовая метка (textual label) и интеллектуально выбирается наиболее подходящий и информативный видеокадр (video frame).

Как это работает

Система использует мультимодальный анализ для обработки видео:

  • Идентификация моментов: Анализируются текстовые сигналы (OCR, субтитры, метаданные), визуальные сигналы (анализ кадров, смена сцен) и аудиосигналы для определения ключевых моментов на основе Interest Criteria (например, смена темы, начало нового шага).
  • Анализ сегмента: Для каждого момента выбирается короткий фрагмент (proper subset).
  • Генерация метки и кадра: Из этого фрагмента генерируется текстовая метка. Система также оценивает кадры, используя меры сходства (Similarity Measure) и разнообразия (Diversity Measure), чтобы выбрать лучший кадр или решить не использовать изображение, если кадры однообразны.
  • Отображение: Созданные анкоря отображаются пользователю и связываются с индикаторами на временной шкале видеоплеера.

Актуальность для SEO

Высокая. Патент опубликован в 2024 году и описывает технологию, лежащую в основе функции «Key Moments» в Google Поиске и автоматических глав (Auto Chapters) на YouTube. Это центральный элемент современной стратегии структурирования видеоконтента.

Важность для SEO

Влияние на SEO значительно (85/100). Патент описывает механизм, который критически влияет на видимость и кликабельность видео в поиске. Получение Key Moments формирует расширенный сниппет (Rich Result), значительно увеличивает занимаемое пространство в SERP и может повысить CTR. Понимание того, как Google автоматически генерирует эти моменты, необходимо для эффективной оптимизации видеоконтента.

Детальный разбор

Термины и определения

Video Timed Anchor / Video Anchor
Временной анкорь видео («Key Moment»). Интерактивный элемент интерфейса, включающий Textual Label, временную метку и, опционально, изображение. Позволяет пользователю перейти к определенному моменту воспроизведения (playback time).
Key Moment Identifier (Идентификатор ключевого момента)
Данные, указывающие на значимый момент в видео. Включают временную метку (time index value) и соответствуют Interest Criteria.
Interest Criteria (Критерии интереса)
Правила или модели, определяющие, что является «значимой темой» (salient topic) в видео. Критерии адаптируются под тип контента (например, голы в спорте, смена шага в инструкции, смена темы в лекции).
Proper Subset of the Video (Подмножество видео)
Короткий сегмент видео (в патенте упоминается пример 6 секунд), начинающийся во время ключевого момента. Этот сегмент анализируется для генерации метки и выбора кадра. Он короче, чем весь сегмент до следующего момента.
Textual Label (Текстовая метка)
Краткое описание содержания ключевого момента.
Similarity Measure (Мера сходства)
Метрика для выбора миниатюры. Оценивает, насколько визуальное содержание кадра семантически соответствует сгенерированной Textual Label сегмента.
Diversity Measure (Мера разнообразия)
Метрика, оценивающая визуальные различия между кадрами в Proper Subset. Помогает определить информативность кадров. Если разнообразие низкое (например, «говорящая голова»), изображение может быть опущено.
Dominant Intent (Доминирующее намерение)
Основная тема или цель видео в определенный момент времени. Смена доминирующего намерения часто служит триггером для нового ключевого момента.
Manual Curations (Ручная разметка)
Аннотации или временные метки, предоставленные человеком (например, автором видео).

Ключевые утверждения (Анализ Claims)

Примечание: В предоставленном тексте патента пункты 1-22 отменены (canceled). Анализ основан на действующих пунктах 23 и далее.

Claim 23 (Независимый пункт): Описывает процесс на стороне пользовательского устройства (клиента).

  1. Устройство получает данные для отображения набора Video Anchors. Каждый анкорь содержит Textual Label для ключевого момента и инструкцию для перехода к этому времени воспроизведения (playback time).
  2. Устройство отображает анкоря в видеоплеере.
  3. Устройство отображает первый кадр видео.
  4. При выборе пользователем конкретного анкоря устройство начинает воспроизведение видео с указанного времени.

Claim 30 (Зависимый): Детализирует процесс генерации анкоря (серверная сторона), на который опирается клиент.

  1. Выбор подмножества видео (subset of the video), начиная с времени ключевого момента.
  2. Определение Textual Label для этого подмножества.
  3. Обработка кадров подмножества для принятия решения, следует ли выбирать кадр для анкоря.
  4. Генерация Video Anchor.

Claim 32 (Зависимый от 30): Описывает механизм выбора кадра (миниатюры).

  1. Для каждого кадра в подмножестве определяются метки (set of labels), описывающие его содержание.
  2. Вычисляется Similarity Measure между метками кадра и Textual Label анкоря.
  3. Для включения в анкорь выбирается кадр с наивысшей мерой сходства.

Где и как применяется

Изобретение в основном применяется на этапе индексирования, а результаты используются при формировании выдачи.

INDEXING – Индексирование и извлечение признаков
Это основной этап работы системы. Video Time Anchor Generator System анализирует видеоконтент.

  • Key Moment Identifier Network (часто нейронная сеть) обрабатывает мультимодальные сигналы (текст, визуал, аудио) для определения ключевых моментов на основе Interest Criteria и смены Dominant Intent.
  • Video Frame Selection Engine анализирует сегменты (Proper Subsets) вокруг этих моментов, генерирует текстовые метки и интеллектуально выбирает (или отклоняет) кадры.
  • Сгенерированные анкоря сохраняются в Video Anchor Index.

METASEARCH – Метапоиск и Смешивание
На этапе формирования ответа пользователю система извлекает релевантные видео. Если для видео существуют данные в Video Anchor Index, они используются для обогащения сниппета видео в SERP (создание Rich Result с Key Moments) или в интерфейсе видеоплеера.

Входные данные:

  • Видеофайл (Видео и Аудио).
  • Текстовые сигналы: OCR (текст на экране), Субтитры (Caption), Метаданные (Metadata).
  • Визуальные сигналы: Эмбеддинги, результаты распознавания объектов.
  • Ручная разметка (Manual Curations).
  • База данных критериев интереса (Interest Criteria).

Выходные данные:

  • Набор Video Timed Anchors (временная метка, Textual Label, ссылка на изображение).

На что влияет

  • Конкретные типы контента: Наибольшее влияние на структурированный контент. Патент выделяет:
    • Инструкции (How-to): начало каждого шага.
    • Лекции и образовательный контент: смена темы.
    • Обзоры продуктов и списки (Listicles): переключение между элементами списка.
    • Спортивные видео: голы, фолы, важные события.
  • Специфические запросы: Информационные и обучающие запросы, где пользователь ищет конкретный фрагмент внутри видео.

Когда применяется

  • При каких условиях работает алгоритм: Алгоритм генерации работает во время индексации видеоконтента.
  • Триггеры активации: Активация происходит, когда система обнаруживает контент, соответствующий Interest Criteria. Триггерами служат:
    • Изменение Dominant Intent видео.
    • Семантические индикаторы в аудио/тексте: фразы типа «The next step», «Moving on».
    • Визуальные индикаторы: смена сцены, появление нового объекта в кадре, текст на экране (OCR).

Пошаговый алгоритм

Процесс генерации временных анкорей (Server-Side)

  1. Идентификация ключевых моментов: Анализ мультимодальных сигналов видео для определения Key Moment Identifiers, соответствующих Interest Criteria (например, путем отслеживания смены Dominant Intent).
  2. Выбор подмножества видео: Для каждого идентификатора выбирается короткий сегмент (Proper Subset, например, 6 секунд), начинающийся в этот момент.
  3. Генерация текстовой метки: Анализ контента (речь, OCR, субтитры) в Proper Subset для генерации описательной Textual Label.
  4. Анализ кадров и выбор миниатюры: Video Frame Selection Engine обрабатывает кадры в Proper Subset:
    1. Оценка разнообразия: Вычисляется Diversity Measure. Если разнообразие низкое (например, только «говорящая голова»), система может решить не включать изображение (переход к шагу 5).
    2. Генерация меток кадра: Для кадров определяются метки, описывающие их визуальное содержание.
    3. Расчет сходства: Вычисляется Similarity Measure между метками кадра и Textual Label сегмента.
    4. Выбор кадра: Выбирается кадр с наивысшим сходством, при условии, что он превышает порог (selection threshold).
  5. Генерация анкоря: Создается Video Timed Anchor, включающий метку, выбранное изображение (если есть) и временной индекс.
  6. Индексация: Анкоря сохраняются в Video Anchor Index.

Какие данные и как использует

Данные на входе

Система использует мультимодальный подход, анализируя следующие типы данных:

  • Мультимедиа факторы:
    • Видеокадры (Visual Signals): используются для генерации эмбеддингов, распознавания объектов (Label Generation), анализа смены сцен.
    • Аудиодорожка (Audio): используется для распознавания речи и анализа интента.
  • Контентные факторы (Text Signals):
    • OCR: Текст, распознанный из кадров видео.
    • Субтитры (Caption data).
    • Метаданные (Metadata).
  • Пользовательские факторы:
    • Manual Curations: Таймкоды или аннотации, созданные вручную авторами.

Какие метрики используются и как они считаются

  • Interest Criteria: Правила или модели ML (упоминаются нейронные сети), определяющие значимые темы (salient topics). Они могут основываться на анализе Dominant Intent и поиске семантических или визуальных индикаторов.
  • Similarity Measure (Мера сходства): Метрика, измеряющая сходство между метками, описывающими содержание кадра, и Textual Label анкоря. Используется для выбора наиболее релевантного кадра.
  • Selection Threshold (Порог выбора): Минимальный порог Similarity Measure, необходимый для выбора кадра.
  • Diversity Measure (Мера разнообразия): Метрика, измеряющая разницу между видеокадрами в Proper Subset. Используется для оценки визуальной информативности и принятия решения о включении изображения.

Выводы

  1. Мультимодальный анализ для структурирования видео: Google индексирует видео не как единый объект, а как набор сегментов. Для этого используется сложная комбинация аудио, визуальных и текстовых сигналов (включая OCR и субтитры) для автоматического понимания структуры контента.
  2. Адаптивные критерии идентификации: Система использует гибкие Interest Criteria, зависящие от типа видео (лекция, спорт, инструкция), для определения того, что является «ключевым моментом».
  3. Интеллектуальный и семантический выбор миниатюр: Выбор миниатюры не случаен. Система стремится выбрать кадр, который визуально наиболее релевантен текстовой метке сегмента, используя Similarity Measure.
  4. Приоритет информативности и отказ от однообразия: Патент явно описывает механизм отказа от миниатюр, если видеоряд однообразен (низкая Diversity Measure) и неинформативен (например, статичная лекция). В таких случаях предпочтение отдается текстовому описанию.
  5. Точность через анализ коротких фрагментов: Для генерации меток и выбора кадров анализируются только короткие фрагменты (Proper Subset) в начале момента, чтобы обеспечить высокую точность и избежать «дрейфа темы».
  6. Важность ручной разметки: Manual Curations (таймкоды автора) официально признаются одним из источников данных для системы.

Практика

Best practices (это мы делаем)

  • Четкое структурирование контента: Создавайте видео с логичной структурой и явными переходами между разделами. Это помогает системе идентифицировать дискретные salient topics и смену Dominant Intent.
  • Использование явных сигналов (Signposting):
    • Вербальные индикаторы: Используйте четкие фразы для обозначения смены темы или начала нового шага («Следующий шаг», «Теперь рассмотрим»). Патент указывает, что такие семантические индикаторы помогают определить Key Moments.
    • Текст на экране (OCR): Дублируйте заголовки разделов текстом в кадре. OCR является важным текстовым сигналом для генерации Textual Label.
  • Обеспечение визуальной релевантности и разнообразия: Убедитесь, что видеоряд соответствует обсуждаемой теме, особенно в начале сегмента (Proper Subset). Система использует Similarity Measure для выбора кадра и Diversity Measure для оценки его информативности. Если вы говорите о продукте, покажите продукт крупным планом.
  • Высокое качество аудио и субтитры: Обеспечьте чистый звук для корректного распознавания речи и загружайте точные субтитры, так как это ключевые источники для определения тем.
  • Предоставление ручной разметки (таймкоды): Всегда предоставляйте таймкоды (например, в описании YouTube). Патент подтверждает использование Manual Curations как источника данных.

Worst practices (это делать не надо)

  • Монотонный видеоряд («Говорящая голова»): Видео с однообразным видеорядом рискуют не получить визуальные анкоря. Система определит низкую Diversity Measure и может решить не включать изображения, что снижает привлекательность в SERP.
  • Отсутствие структуры и плавные переходы: Неструктурированный контент без четких границ между темами затрудняет автоматическое выделение ключевых моментов.
  • Рассинхронизация визуала и аудио: Если аудиодорожка не соответствует видеоряду, система может сгенерировать нерелевантные метки или выбрать неподходящие кадры из-за низкого Similarity Measure.
  • Низкое качество продакшена: Плохой звук или нечеткое изображение затрудняют анализ аудио и визуальных сигналов.

Стратегическое значение

Патент подтверждает стратегический курс Google на глубокое мультимодальное понимание видеоконтента. Цель — сделать видео таким же удобным для навигации и «сканирования», как веб-страницы. Для SEO это означает, что оптимизация внутренней структуры видео становится критически важной. Получение Key Moments дает значительное конкурентное преимущество в SERP, позволяя видео ранжироваться по различным интентам, соответствующим его сегментам.

Практические примеры

Сценарий: Оптимизация видео-обзора трех смартфонов для получения Key Moments.

Цель: Получить отдельные анкоря для обзора каждого смартфона (Pixel 3, Pixel 3 XL, Pixel 2).

  1. Структурирование: Четко разделить видео на три сегмента.
  2. Сигнализирование начала сегмента (например, Pixel 3 XL):
    • Аудио: Четко сказать: «Переходим к номеру 2: Google Pixel 3 XL».
    • Текст на экране (OCR): Показать плашку с текстом «No. 2: Google Pixel 3 XL».
  3. Обеспечение визуальной релевантности (Proper Subset): В течение первых секунд этого сегмента показать крупным планом Pixel 3 XL, а не лицо ведущего.
  4. Ожидаемый результат: Google идентифицирует начало обзора как Key Moment. Используя аудио и OCR, генерирует точный Textual Label («No. 2: Google Pixel 3 XL»). Анализируя кадры, система определяет высокое сходство (Similarity Measure) между кадрами с телефоном и меткой, и выбирает релевантный кадр для визуального анкоря (как показано на FIG. 1 патента).

Вопросы и ответы

Как Google решает, показывать ли изображение в Key Moment или только текст?

Решение основано на информативности кадров в начале сегмента. Система анализирует «меру разнообразия» (Diversity Measure). Если кадры однообразны (например, статичное лицо спикера) и не добавляют информации, Google может опустить изображение и показать только текст, возможно, более длинный и описательный.

Какой именно кадр Google выберет для миниатюры Key Moment?

Система анализирует короткий фрагмент (Proper Subset, например, 6 секунд) в начале момента. Она не берет первый кадр, а выбирает тот, который имеет наивысшую «меру сходства» (Similarity Measure) с сгенерированной текстовой меткой сегмента. Это гарантирует выбор наиболее репрезентативного кадра.

Какие источники данных Google использует для генерации текста (меток) Key Moments?

Используется мультимодальный подход. Основные источники: аудиодорожка (распознавание речи), субтитры (Caption data), текст, видимый на экране (распознанный через OCR), метаданные видео и ручная разметка (Manual Curations), предоставленная авторами (таймкоды).

Влияет ли тип видео на то, как Google ищет ключевые моменты?

Да, патент明确 указывает, что «критерии интереса» (Interest Criteria) адаптируются к разным типам видео. Логика идентификации значимых тем (salient topics) будет отличаться для спорта (голы), инструкций (новые шаги) и лекций (смена темы).

Что такое «Proper Subset of the Video» и почему он важен для SEO?

Это короткий фрагмент видео (несколько секунд) в самом начале ключевого момента. Система анализирует именно его для генерации метки и выбора кадра. Для SEO это означает, что критически важно оптимизировать первые секунды каждого раздела видео: четко заявить тему (аудио/текст) и показать релевантный визуал.

Как SEO-специалист может повлиять на текст и изображение, выбранные Google?

Необходимо обеспечить четкие сигналы в начале сегмента. Используйте описательные формулировки в речи и дублируйте их текстом на экране (для OCR). Убедитесь, что визуальный ряд соответствует теме: если вы хотите показать продукт на миниатюре, покажите его крупным планом в начале сегмента.

Является ли ручная разметка таймкодов (YouTube Chapters) гарантией появления Key Moments?

Патент упоминает Manual Curations как один из источников данных. Хотя это не гарантия, предоставление точной ручной разметки значительно увеличивает вероятность того, что система использует эти данные для формирования Video Timed Anchors, и они обычно имеют приоритет над автоматическими.

Что такое «Dominant Intent» и как он используется?

Dominant Intent — это основная тема сегмента видео, определяемая с помощью моделей машинного обучения. Система отслеживает это намерение с течением времени. Когда Dominant Intent меняется (например, переход от вступления к шагу 1), это служит сильным триггером для идентификации нового ключевого момента.

Описывает ли патент использование наличия Key Moments в ранжировании видео?

Патент фокусируется на генерации анкорей для улучшения навигации и не описывает их как прямой фактор ранжирования. Однако наличие Key Moments значительно улучшает представление в SERP (Rich Result) и положительно влияет на поведенческие сигналы (например, CTR, вовлеченность), что косвенно влияет на эффективность видео.

Применяется ли эта технология только в результатах поиска Google?

Нет. Патент описывает применение в любом окружении для воспроизведения видео (video player environment). Это включает как сниппеты в результатах поиска (Key Moments), так и интерфейсы видеоплееров, например, для автоматической генерации глав на YouTube.

Похожие патенты

Как Google создает видео-нарезки (Composite Videos) на лету, используя текстовый запрос и анализ аудиодорожек
Google может анализировать аудиодорожки (транскрипты) видео для идентификации конкретных сегментов, где произносятся слова из запроса пользователя. Система автоматически объединяет эти сегменты из разных видео в одно новое сводное видео (Composite Video). Для выбора сегментов используются метрики релевантности, популярности и свежести исходного контента.
  • US9672280B2
  • 2017-06-06
  • Мультимедиа

  • Индексация

  • Семантика и интент

Как Google позволяет пользователям переключаться между ключевыми моментами (Хуками) в VOD-контенте на основе анализа видео и внешних сигналов
Google разработал систему для улучшения навигации по VOD-контенту (Video-on-Demand). Вместо просмотра видео с начала, пользователи могут искать конкретные типы сцен («хуки»). Система идентифицирует эти моменты, используя анализ видео (Video Image Recognition) и внешние сигналы (например, популярность клипов в соцсетях), и позволяет переключаться между разными видео, начиная просмотр сразу с этих ключевых сцен (time-shifting).
  • US20180302680A1
  • 2018-10-18
  • Мультимедиа

  • Семантика и интент

Как Google динамически выбирает лучший кадр из видео (thumbnail) и точку воспроизведения под конкретный запрос пользователя
Google использует систему для динамического выбора thumbnail для видео в результатах поиска. Система анализирует запрос пользователя и содержание каждого кадра видео, преобразуя их в числовые векторы в общем семантическом пространстве. Кадр, наиболее близкий по смыслу к запросу, выбирается в качестве репрезентативного (thumbnail). Ссылка в выдаче может вести непосредственно к этому моменту в видео (Deep Linking).
  • US20160378863A1
  • 2016-12-29
  • Семантика и интент

  • Мультимедиа

  • Индексация

Как Google использует семантический анализ и оценку эстетики для генерации динамических превью видео под запрос пользователя
Google анализирует видео, разбивая его на сегменты и определяя семантические концепции (объекты, действия) в каждом кадре. Для каждой сцены выбирается лучший кадр, сочетающий информативность и визуальное качество. Эти кадры используются для создания динамических превью (storyboards) или замены тамбнейлов, адаптируясь под конкретный поисковый запрос или интересы пользователя для повышения CTR.
  • US9953222B2
  • 2018-04-24
  • Семантика и интент

  • Мультимедиа

  • Индексация

Как Google анализирует видимый контент на экране пользователя для предоставления контекстной информации без ввода запроса (Contextual Search)
Google использует механизм для анализа контента, активно отображаемого на экране устройства (веб-страницы, приложения, чаты). По общему триггеру (например, долгое нажатие или жест) система идентифицирует ключевые сущности только в видимой области. Она определяет их важность на основе визуального представления (размер, цвет, позиция) и типа контента, причем логика определения важности адаптируется (например, в чате приоритет у недавних сообщений внизу экрана).
  • US11003667B1
  • 2021-05-11
  • Семантика и интент

  • Knowledge Graph

Популярные патенты

Как Google классифицирует запросы как навигационные или исследовательские, чтобы регулировать количество показываемых результатов
Google использует систему для динамического определения количества отображаемых результатов поиска. Система классифицирует запрос как навигационный (поиск конкретного места/ресурса) или исследовательский (поиск вариантов). Классификация основана на анализе компонентов оценки релевантности (совпадение по названию vs. категории) и энтропии исторических кликов. При навигационном интенте количество результатов сокращается.
  • US9015152B1
  • 2015-04-21
  • Семантика и интент

  • Поведенческие сигналы

  • Local SEO

Как Google в Автоподсказках (Suggest) предлагает искать запрос в разных вертикалях поиска (Картинки, Новости, Карты)
Патент описывает механизм "разветвления" (forking) автоподсказок Google Suggest. Система анализирует введенные символы и определяет, в каких вертикалях поиска (Корпусах) — таких как Картинки, Новости или Карты — пользователи чаще всего ищут предложенный запрос. Если корреляция с конкретной вертикалью высока (на основе Corpus Score), система предлагает пользователю искать сразу в ней, наряду со стандартным универсальным поиском.
  • US9317605B1
  • 2016-04-19
  • Семантика и интент

  • SERP

  • Поведенческие сигналы

Как Google переносит вес поведенческих сигналов (кликов) между связанными запросами для улучшения ранжирования
Google улучшает ранжирование по редким или новым запросам, для которых недостаточно собственных данных, используя поведенческие сигналы (Clickthrough Data) из связанных запросов. Если пользователи часто вводят запросы последовательно, система идентифицирует связь и переносит данные о кликах с одного запроса на другой, позволяя документам с высоким engagement ранжироваться выше по всему кластеру.
  • US7505964B2
  • 2009-03-17
  • Поведенческие сигналы

  • SERP

Как Google (YouTube) анализирует трафик конкурирующих видео для рекомендации улучшений метаданных
Google использует систему для анализа конкуренции между видео на основе общих поисковых запросов и времени просмотра. Система выявляет поисковые запросы, которые приводят трафик на конкурирующие (например, производные) видео, и сравнивает их с метаданными оригинального видео. Если обнаруживаются релевантные термины, отсутствующие у оригинала, они рекомендуются автору для улучшения видимости.
  • US10318581B2
  • 2019-06-11
  • Поведенческие сигналы

  • Мультимедиа

  • Семантика и интент

Как Google анализирует сессии пользователей и кластеризует концепции для генерации блока "Связанные запросы" (Related Searches)
Google анализирует последовательности запросов пользователей в рамках одной сессии для выявления шаблонов уточнений. Система кластеризует эти уточнения по смыслу, анализируя контент ранжирующихся по ним документов или другие запросы, ведущие на эти документы. Это позволяет предлагать пользователям концептуально различные варианты для сужения или изменения темы поиска.
  • US8065316B1
  • 2011-11-22
  • Семантика и интент

  • SERP

  • Поведенческие сигналы

Как Google использует консенсус анкорных текстов для определения авторитетных источников и проверки фактов в Knowledge Graph
Google определяет, является ли веб-страница авторитетным источником о конкретной сущности (Entity), анализируя все анкорные тексты входящих ссылок. Система находит консенсусное описание (Center of Mass). Если оно совпадает с именем сущности и это имя присутствует в заголовке страницы, документ используется как эталон для проверки (Corroboration) фактов в базе знаний Google (Fact Repository).
  • US9208229B2
  • 2015-12-08
  • Knowledge Graph

  • Ссылки

  • EEAT и качество

Как Google использует свой индекс для автоматического обновления устаревших ссылок в закладках, истории поиска и на веб-страницах
Система Google поддерживает актуальность различных коллекций URL (закладки пользователей, история поиска, электронные письма), используя основной поисковый индекс как эталон канонических адресов. Если сохраненный URL устарел, система автоматически заменяет его на актуальную версию. Также описан механизм уведомления владельцев сайтов о неработающих исходящих ссылках.
  • US20130144836A1
  • 2013-06-06
  • Ссылки

  • Индексация

  • Техническое SEO

Как Google планировал использовать социальные связи, сети доверия и экспертизу для персонализации и переранжирования поисковой выдачи
Google запатентовал метод использования данных из социальных сетей («member networks») для влияния на ранжирование. Пользователи могли явно одобрять («endorse») результаты поиска. Эти одобрения показывались другим связанным пользователям (друзьям или людям, ищущим экспертное мнение) и использовались для переранжирования выдачи, добавляя персонализированный слой доверия.
  • US8825639B2
  • 2014-09-02
  • Персонализация

  • EEAT и качество

  • Поведенческие сигналы

Как Google использует социальные связи для выявления предвзятых ссылок и борьбы со ссылочными схемами и кликфродом
Google анализирует взаимоотношения между администраторами веб-сайтов (используя данные социальных сетей), чтобы определить независимость ссылок или кликов по рекламе. Если обнаружена тесная связь, это интерпретируется как предвзятость (Bias). В результате вес ссылки для ранжирования может быть снижен (борьба с Search Spamming), или клик по рекламе может быть дисконтирован (борьба с Ad Spamming).
  • US10402457B1
  • 2019-09-03
  • Ссылки

  • Антиспам

  • Краулинг

Как Google автоматически дополняет запросы пользователя терминами из его недавней истории поиска для уточнения интента
Google использует механизм для улучшения релевантности результатов путем анализа недавней истории поиска пользователя. Если текущий запрос похож на предыдущие, система определяет ключевые контекстные термины, которые часто повторялись в истории (устойчивый интент), но отсутствуют в текущем запросе. Эти термины автоматически добавляются к запросу, чтобы предоставить более точные и персонализированные результаты.
  • US9449095B1
  • 2016-09-20
  • Семантика и интент

  • Персонализация

  • Поведенческие сигналы

seohardcore