SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google автоматически сегментирует обучающие видео ("how-to"), анализируя транскрипты и атрибуты задачи

VIDEO SEGMENTS FOR A VIDEO RELATED TO A TASK (Видеосегменты для видео, связанного с задачей)
  • US9304648B2
  • Google LLC
  • 2013-06-26
  • 2016-04-05
  • Семантика и интент
  • Мультимедиа
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google использует систему для анализа и структурирования обучающих ("how-to") видео. Система определяет задачу, оценивает качество видео (Confidence Measure), сравнивая его с идеальным шаблоном (Template), и автоматически разбивает лучшее видео на сегменты (шаги, инструменты). Анализ основан на транскрипте видео и поиске переходных индикаторов, что позволяет пользователям переходить к нужным моментам инструкции (Key Moments).

Описание

Какую проблему решает

Патент решает проблему неэффективной навигации внутри обучающего видеоконтента. Пользователям часто сложно найти конкретный шаг или информацию в длинном видеоруководстве. Изобретение направлено на автоматическое структурирование видео, чтобы обеспечить быстрый доступ к конкретным этапам выполнения задачи (task).

Что запатентовано

Запатентована система (Video Segmentation System) для идентификации, оценки качества и автоматической сегментации обучающих видео (how-to videos). Система определяет атрибуты задачи (Task Attributes) — шаги, инструменты, материалы — и анализирует контент видео, в первую очередь транскрипт (transcript), чтобы найти эти атрибуты и разделить видео на соответствующие сегменты (Video Segments). Качество видео оценивается с помощью Confidence Measure.

Как это работает

Система работает в несколько этапов:

  • Идентификация задачи: Определяется намерение пользователя на основе поискового запроса (How-to Query) или его действий (например, анализа изображений).
  • Генерация Шаблона: Система анализирует множество источников (включая текст), чтобы определить консенсусный набор шагов и атрибутов, формируя эталонный шаблон (Template).
  • Выбор и оценка видео: Находятся релевантные видео. Рассчитывается Confidence Measure, учитывающая соответствие видео шаблону и другие сигналы (просмотры, ссылки). Выбирается лучшее видео.
  • Сегментация: Анализируется транскрипт выбранного видео для поиска переходных индикаторов (Transitional Indicators) — например, слов "следующий шаг".
  • Ассоциация и представление: Каждый видеосегмент связывается с шагом задачи, и результат предоставляется пользователю с возможностью навигации (например, Key Moments).

Актуальность для SEO

Высокая. Технология напрямую связана с функцией "Key Moments" (Ключевые моменты) в Google Поиске и автоматическими главами на YouTube. Автоматическое понимание структуры видеоконтента для предоставления прямых ответов является стратегическим направлением развития поиска.

Важность для SEO

Патент имеет высокое значение для SEO, особенно для создателей обучающего контента. Он описывает механизмы оценки качества и структуры видеоинструкций. Понимание этих механизмов критично для оптимизации видео с целью попадания в блок "Key Moments", что значительно увеличивает видимость и CTR. Если видео не структурировано и не содержит четких сигналов для сегментации (особенно в речи), оно проигрывает конкурентам.

Детальный разбор

Термины и определения

Confidence Measure (Мера уверенности)
Метрика, оценивающая эффективность и полноту видео для выполнения задачи. Используется для выбора лучшего видео. Зависит от соответствия Template, просмотров, ссылок, отзывов.
How-to Query (Обучающий запрос)
Запрос, указывающий на желание получить инструкцию. Содержит Task Terms и часто Inquiry Terms (например, "how to").
Task Attributes (Атрибуты задачи)
Элементы информации о задаче: название, уровень сложности, время, инструменты (Tools), материалы (Materials) и набор шагов (Steps).
Template (Шаблон)
Эталонная структура данных, указывающая желаемое содержание и последовательность (desired progression) для задачи. Формируется на основе анализа множества источников.
Transcript (Транскрипт)
Текстовое представление аудиодорожки видео. Является основным источником данных для сегментации согласно Claim 1.
Transitional Indicators (Индикаторы перехода)
Сигналы в видео, аудио или транскрипте, указывающие на смену сегмента. Включают слова-маркеры ("next", "step"), смену сцен.
Video Segments (Видеосегменты)
Части видео, определенные системой, соответствующие конкретным Task Attributes (например, шагу инструкции).

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает основной процесс обработки и сегментации видео, акцентируя внимание на анализе транскрипта.

  1. Система идентифицирует задачу и множество обучающих видео.
  2. Рассчитывается Confidence Measure, выбирается лучшее видео.
  3. Определяются видеосегменты на основе транскрипта (transcript) видео.
  4. Механизм сегментации: Термины из транскрипта сопоставляются с сохраненными терминами (stored terms), которые указывают на Task Attributes или переходы между сегментами.
  5. Идентифицируются Task Attributes (включая шаги).
  6. Атрибуты ассоциируются с сегментами.
  7. В ответ на запрос система предоставляет шаги задачи со ссылками на соответствующие видеосегменты.

Claim 7 (Зависимый от 1): Уточняет метод сегментации. Определение сегментов включает сопоставление Transitional Indicators (из сохраненных терминов) с терминами в транскрипте. Это подтверждает опору на лингвистические маркеры.

Claim 9 (Зависимый от 1): Уточняет расчет Confidence Measure. Он включает идентификацию Template (желаемого содержания) и сравнение видео с этим шаблоном.

Claim 11 (Зависимый от 10 и 9): Описывает создание шаблона. Он формируется на основе анализа множества источников (plurality of sources), включая как минимум один источник, не являющийся видео.

Claim 20 и 21 (Зависимые от 18 и 1): Описывают применение в дополненной реальности (AR). Система может получить изображение объекта, идентифицировать его, найти соответствующий видеосегмент и наложить (overlaying) изображения из сегмента на объект на дисплее пользователя.

Где и как применяется

Изобретение затрагивает несколько этапов поиска, с основным фокусом на глубокой обработке контента.

INDEXING – Индексирование и извлечение признаков
Основной этап работы системы (происходит офлайн):

  • Транскрибация и NLP: Видео обрабатываются для создания транскриптов. Извлекается текст в кадре (Video text).
  • Генерация Шаблонов: Анализ множества источников (текст и видео) для создания эталонных Templates для задач.
  • Анализ и Сегментация: Анализ транскриптов для идентификации Transitional Indicators и Task Attributes. Разделение видео на Video Segments.
  • Расчет Качества: Расчет Confidence Measure на основе соответствия Template и других сигналов (просмотры, ссылки).
  • Сохранение: В индексе сохраняются ассоциации между задачей, видео, его сегментами и атрибутами.

QUNDERSTANDING – Понимание Запросов
Система распознает How-to Query на основе текста или нетекстовых данных (например, изображений, отправленных пользователем – важно для AR функционала).

RANKING – Ранжирование
Confidence Measure используется как важный сигнал качества и релевантности при ранжировании видео для обучающих запросов.

METASEARCH – Метапоиск и Смешивание
Результаты представляются в виде специального блока (SERP Feature), такого как "Key Moments", отображающего идентифицированные сегменты и шаги.

На что влияет

  • Типы контента: Обучающие видео (How-to videos), туториалы, рецепты, инструкции по ремонту, DIY.
  • Специфические запросы: Информационные запросы, подразумевающие выполнение задачи.
  • Ниши: Все ниши, где применим обучающий видеоконтент.

Когда применяется

  • Триггеры активации: Идентификация How-to Query или распознавание задачи на основе действий пользователя (например, пользователь фотографирует объект, связанный с задачей – как в FIG. 7 и FIG. 11 патента).
  • Условия работы: Наличие в индексе релевантных видео с достаточно высоким Confidence Measure, которые система смогла успешно транскрибировать и сегментировать.

Пошаговый алгоритм

Процесс А: Генерация шаблона (Офлайн / Индексирование)

  1. Идентификация популярных задач: Анализ логов поисковых запросов.
  2. Сбор источников: Идентификация множества источников (видео и текст), описывающих задачу.
  3. Генерация Template: Определение консенсусного набора Task Attributes (шаги, инструменты) и их последовательности. Создание эталонной структуры.

Процесс Б: Обработка и Оценка Видео (Офлайн / Индексирование)

  1. Транскрибация: Создание текстового транскрипта видео.
  2. Сегментация: Анализ транскрипта на наличие Transitional Indicators и атрибутов (сопоставление с stored terms). Разделение на Video Segments.
  3. Ассоциация: Связывание сегментов с атрибутами задачи.
  4. Расчет Confidence Measure: Сравнение структуры видео с Template (Процесс А). Учет внешних сигналов (просмотры, ссылки).
  5. Сохранение: Сохранение в индексе видео, его сегментов, атрибутов и оценки.

Процесс В: Обработка запроса (Реальное время)

  1. Идентификация задачи: Классификация запроса как How-to Query.
  2. Поиск и выбор видео: Поиск в индексе обработанного видео с наивысшим Confidence Measure.
  3. Представление результатов: Предоставление видео со структурированной разметкой (шагами) и ссылками на сегменты (Key Moments).

Процесс Г: Обработка на основе объектов (AR функционал, FIG. 11)

  1. Получение изображения: Система получает изображение от пользователя (например, через камеру).
  2. Идентификация объекта: Распознавание объекта на изображении (например, инструмента).
  3. Поиск сегментов: Поиск видеосегментов, связанных с этим объектом в контексте задачи.
  4. Предоставление сегмента: Отображение сегмента, опционально в режиме наложения (AR) на объект.

Какие данные и как использует

Данные на входе

  • Контентные факторы (Видео/Текст):
    • Транскрипт (Transcript): Критически важные данные (Claim 1). Используется для сегментации и идентификации атрибутов.
    • Аудиодорожка (для генерации транскрипта).
    • Видеоряд: Анализ цвета (color histograms), движения, смены сцен (как Transitional Indicators). Распознавание текста в кадре (Video text).
    • Внешние текстовые источники (используются для генерации Template).
  • Поведенческие факторы: Частота просмотров (frequency of views), отзывы пользователей (user feedback), рейтинги. Используются для расчета Confidence Measure.
  • Ссылочные факторы: Количество веб-ссылок на видео (web-links), анкорный текст. Используются для расчета Confidence Measure.
  • Временные факторы: Свежесть видео (timeliness).

Какие метрики используются и как они считаются

  • Confidence Measure (Мера уверенности видео): Агрегированная метрика качества. Рассчитывается на основе:
    • Соответствие шаблону (Similarity Measure): Насколько структура и содержание видео соответствуют Template.
    • Внешних сигналов (просмотры, ссылки, отзывы).
    • Внутренних сигналов качества (соотношение информация/шум, свежесть).
  • Relevance Score (Оценка релевантности атрибутов): Метрика важности атрибута (шага, инструмента) для задачи. Рассчитывается на основе консенсуса во множестве источников при генерации шаблона.
  • Query Score (Оценка запроса): Уверенность системы в том, что запрос является обучающим (How-to Query).

Выводы

  1. Транскрипт — основа сегментации How-to видео: Патент (Claim 1) явно указывает, что сегментация основана на анализе транскрипта. Качество аудио и точность субтитров напрямую влияют на способность Google структурировать видео.
  2. Необходимость явных сигналов перехода: Система ищет Transitional Indicators (вербальные, визуальные) для разбивки видео. Использование четких маркеров (например, нумерация шагов в речи) критично для корректной работы алгоритма.
  3. Google определяет эталон (Template) для каждой задачи: Качество инструкции оценивается путем сравнения с Template, который формируется на основе консенсуса из множества источников (включая текстовые). Соответствие этому эталону является ключевым для Confidence Measure.
  4. Структура важнее уникальности: Для обучающего контента соответствие ожидаемой структуре (шаблону) может быть важнее, чем уникальность подачи. Система предпочитает контент, который легко декомпозировать на стандартные шаги.
  5. Интеграция с реальным миром (AR): Патент предусматривает использование сегментов для помощи в реальном времени через распознавание объектов и дополненную реальность (AR), что указывает на стратегическое направление развития поиска.

Практика

Best practices (это мы делаем)

  • Проектирование видео под эталонный шаблон (Template): Анализируйте топовые инструкции (текст и видео) по теме, чтобы понять консенсусный набор шагов и инструментов. Структурируйте видео в соответствии с этим консенсусом, чтобы повысить Confidence Measure.
  • Использование явных вербальных индикаторов перехода: В сценарии и речи используйте четкие Transitional Indicators. Проговаривайте начало каждого шага (например, "Шаг первый...", "Следующий этап...", "Далее..."). Это критично для анализа транскрипта.
  • Оптимизация аудио и транскрипции: Обеспечьте высокое качество звука для корректного распознавания речи. Всегда проверяйте и корректируйте автоматические субтитры, так как они используются как транскрипт для сегментации.
  • Визуальное дублирование структуры: Используйте текстовые плашки на экране для обозначения номера и названия шага. Это может служить дополнительным индикатором перехода.
  • Полнота инструкции: Включайте все ключевые Task Attributes: четкое введение, список инструментов/ингредиентов и пошаговое выполнение. Это повышает соответствие шаблону.

Worst practices (это делать не надо)

  • Бесструктурное изложение и отсутствие шагов: Подача информации сплошным потоком без логического разделения. Система не сможет идентифицировать Video Segments.
  • Низкое качество аудио или только музыка: Плохой звук приводит к ошибкам в транскрипции. Видео без речи значительно сложнее сегментировать по этому алгоритму, так как он полагается на текст.
  • Длинные вступления и "вода" (Noise): Большое количество контента, не связанного с задачей, снижает соотношение информация/шум и может негативно влиять на оценку качества.
  • Игнорирование консенсуса (Template): Предложение метода, который сильно отличается от общепринятого, может привести к низкой оценке Confidence Measure для общих запросов.

Стратегическое значение

Патент подтверждает стратегию Google по структурированию видеоконтента для предоставления прямых ответов. Для SEO это означает, что оптимизация видео смещается от простых метаданных к глубокой проработке сценария и структуры ролика. Видео, оптимизированные для машинного понимания и сегментации, получают значительное преимущество в видимости через функции SERP, такие как Key Moments.

Практические примеры

Сценарий: Оптимизация видео "Как заменить колесо автомобиля" для Key Moments.

  1. Анализ шаблона: Изучаем выдачу и инструкции автопроизводителей. Определяем консенсусные шаги (Template): (1) Безопасность и парковка, (2) Подготовка инструментов и запаски, (3) Ослабление гаек, (4) Установка домкрата и подъем авто, (5) Снятие колеса, (6) Установка запаски, (7) Затягивание гаек, (8) Спуск авто.
  2. Структурирование видео: Планируем сценарий строго по этим 8 шагам.
  3. Внедрение индикаторов (Transitional Indicators):
    • Ведущий говорит: "Шаг четвертый: установка домкрата. Важно найти правильную точку опоры..."
    • На экране появляется текст: "Шаг 4: Установка домкрата".
    • Между шагами используется короткий визуальный переход.
  4. Ожидаемый результат: Google легко распознает индикаторы в транскрипте, корректно сегментирует видео и сопоставляет его с Template. Видео получает блок Key Moments в SERP по запросу "как поменять колесо".

Вопросы и ответы

Что такое "Шаблон" (Template) и как он влияет на ранжирование видео?

Шаблон — это эталонная структура инструкции для задачи, которую Google определяет, анализируя множество источников (видео и тексты). Он содержит консенсусный набор шагов и атрибутов. Соответствие видео этому шаблону является ключевым компонентом Confidence Measure. Чем ближе структура видео к шаблону, тем выше его оценка качества и потенциал для ранжирования и показа в Key Moments.

Как Google определяет сегменты (Key Moments) в видео согласно патенту?

Согласно Claim 1, основной механизм — это анализ транскрипта видео. Google ищет Transitional Indicators (слова-маркеры, такие как "следующий шаг") и Task Attributes (упоминания шагов или инструментов) в тексте. Сопоставляя их с сохраненными терминами, система определяет границы сегментов.

Насколько важны субтитры и качество звука?

Критически важны. Поскольку система полагается на транскрипт для сегментации, низкое качество звука приводит к ошибкам распознавания речи, что мешает анализу. Наличие точных, скорректированных вручную субтитров значительно повышает шансы на корректную автоматическую сегментацию.

Нужно ли добавлять таймкоды вручную в описание видео?

Хотя патент описывает автоматическую сегментацию, ручное добавление таймкодов (глав) остается лучшей практикой. Это предоставляет системе явные сигналы о структуре видео и служит надежной альтернативой или дополнением к автоматическому распознаванию Transitional Indicators.

Какие факторы входят в "Confidence Measure" для How-to видео?

Патент упоминает несколько групп факторов. Основной — это соответствие видео идеальному шаблону (Template). Дополнительно учитываются стандартные сигналы ранжирования: частота просмотров, количество и качество веб-ссылок на видео, отзывы и комментарии пользователей, а также свежесть видео.

Что важнее для How-to видео: уникальность метода или соответствие консенсусу?

С точки зрения этого патента, для получения высокой Confidence Measure важнее соответствие консенсусу (Template). Система ищет инструкцию, отражающую общепринятый способ выполнения задачи. Слишком нестандартные подходы могут быть оценены как менее надежные для широкого запроса.

Может ли система сегментировать видео без речи (например, только с музыкой)?

Это будет затруднительно. Основной механизм (Claim 1) полагается на анализ транскрипта. Хотя патент упоминает возможность использования визуальных индикаторов (смена сцен, текст на экране), система будет гораздо менее эффективна для видео без четкого вербального сопровождения инструкций.

Как патент связан с распознаванием изображений и AR (Дополненной реальностью)?

Патент (Claims 20, 21) описывает продвинутый функционал: система может получить изображение объекта (например, инструмента), идентифицировать его, найти соответствующий видеосегмент и показать инструкцию пользователю, возможно, в виде наложения дополненной реальности (AR) поверх объекта.

Как узнать, какие "Атрибуты задачи" (Task Attributes) Google ожидает увидеть?

Нужно проанализировать консенсус в ТОПе выдачи. Изучите лучшие текстовые и видео инструкции по вашей теме, чтобы понять, какие шаги, инструменты, материалы и оценки времени упоминаются чаще всего. Это даст представление о том, как может выглядеть Template Google для этой задачи.

Применяется ли эта технология только к YouTube?

Технология описана в общем виде и применима к любому видеоконтенту, который Google может проиндексировать и транскрибировать. Хотя YouTube является основной платформой для реализации этих функций, система может обрабатывать и видео на сторонних сайтах, если имеет доступ к их контенту и транскрипту.

Похожие патенты

Как Google автоматически определяет и отображает ключевые моменты (Key Moments) в видео для улучшения навигации
Google использует систему для анализа видеоконтента с помощью текстовых, визуальных и аудиосигналов. Система определяет "ключевые моменты" (salient topics), генерирует для них текстовые метки и интеллектуально выбирает наиболее релевантные стоп-кадры. Эти "временные анкоря" (Video Timed Anchors) позволяют пользователям понять структуру видео и перейти к интересующему сегменту прямо из поиска или плеера.
  • US20240046964A1
  • 2024-02-08
  • Мультимедиа

  • Семантика и интент

Как Google использует анализ видео и аудио для построения графов зависимостей между эпизодами сериализованного контента
Google анализирует медиаконтент (например, эпизоды сериалов или обучающих курсов), чтобы автоматически понять, какие эпизоды связаны между собой. Изучая фрагменты повторов, транскрипты и визуальные элементы (включая распознавание лиц), система строит «Граф Зависимостей». Это позволяет рекомендовать пользователям необходимые для понимания предыдущие эпизоды, улучшая организацию и потребление сериализованного контента.
  • US9558407B1
  • 2017-01-31
  • Мультимедиа

  • Семантика и интент

  • Персонализация

Как Google создает видео-нарезки (Composite Videos) на лету, используя текстовый запрос и анализ аудиодорожек
Google может анализировать аудиодорожки (транскрипты) видео для идентификации конкретных сегментов, где произносятся слова из запроса пользователя. Система автоматически объединяет эти сегменты из разных видео в одно новое сводное видео (Composite Video). Для выбора сегментов используются метрики релевантности, популярности и свежести исходного контента.
  • US9672280B2
  • 2017-06-06
  • Мультимедиа

  • Индексация

  • Семантика и интент

Как Google связывает медиаконтент (видео) с Графом Знаний для улучшения поиска и автоматического тегирования
Google использует систему для связи медиаконтента (например, видео на YouTube) со структурированными данными из Базы Знаний (Knowledge Graph). Описывается, как создаются ассоциации между видео и сущностями путем анализа метаданных, что позволяет пользователям искать контент по идентификаторам сущностей и автоматически тегировать медиафайлы, улучшая их обнаруживаемость.
  • US9189528B1
  • 2015-11-17
  • Knowledge Graph

  • Семантика и интент

  • Мультимедиа

Как Google использует семантический анализ и оценку эстетики для генерации динамических превью видео под запрос пользователя
Google анализирует видео, разбивая его на сегменты и определяя семантические концепции (объекты, действия) в каждом кадре. Для каждой сцены выбирается лучший кадр, сочетающий информативность и визуальное качество. Эти кадры используются для создания динамических превью (storyboards) или замены тамбнейлов, адаптируясь под конкретный поисковый запрос или интересы пользователя для повышения CTR.
  • US9953222B2
  • 2018-04-24
  • Семантика и интент

  • Мультимедиа

  • Индексация

Популярные патенты

Как Google использует консенсус источников для выбора и валидации фактов в Knowledge Graph и прямых ответах
Система Google для выбора наилучшего ответа на фактические запросы. Она оценивает потенциальные ответы из разных источников и вычисляет «Оценку Поддержки» (Supported Score) на основе их согласованности. Факт отображается, только если он значительно превосходит противоречащие и несвязанные данные, обеспечивая высокую точность ответа.
  • US7953720B1
  • 2011-05-31
  • Knowledge Graph

  • EEAT и качество

  • Семантика и интент

Как Google использует географическое положение и историю поведения пользователей для разрешения неоднозначных запросов
Google применяет механизм для интерпретации неоднозначных поисковых запросов, которые имеют несколько географических или категориальных значений. Система определяет доминирующий интент, анализируя, как пользователи в том же регионе ранее уточняли похожие запросы и насколько они были удовлетворены результатами. На основе этих локализованных данных (гистограмм и метрик неудовлетворенности) выбирается наиболее вероятная интерпретация, и выдача фильтруется соответственно.
  • US8478773B1
  • 2013-07-02
  • Семантика и интент

  • Персонализация

  • Поведенческие сигналы

Как Google позволяет вебмастерам управлять весом и интерпретацией исходящих ссылок через атрибуты тега (Основа nofollow)
Google запатентовал механизм, позволяющий вебмастерам добавлять в теги ссылок () специальные пары "параметр=значение" (например, rel=nofollow или linkweight=0.5). Эта информация используется краулером и поисковой системой для изменения способа обработки ссылки, например, для корректировки передаваемого веса (PageRank) или блокировки ее учета.
  • US7979417B1
  • 2011-07-12
  • Ссылки

  • Краулинг

  • Техническое SEO

Как Google интегрирует персональный и социальный контент (Email, посты друзей, календарь) в универсальную поисковую выдачу
Google использует этот механизм для глубокой персонализации поиска, интегрируя релевантный контент из личных источников пользователя (Gmail, Drive, Calendar) и от его социальных связей. Система индексирует этот контент с разрешения пользователя, ранжирует его с учетом социальных сигналов (Affinity) и адаптивно отображает в SERP, смешивая с публичными результатами.
  • US20150310100A1
  • 2015-10-29
  • Персонализация

  • Индексация

  • Поведенческие сигналы

Как Google использует крупномасштабное машинное обучение и данные о поведении пользователей для предсказания кликов и ранжирования результатов
Google использует систему машинного обучения для создания модели ранжирования, которая предсказывает вероятность клика пользователя по документу. Модель обучается на огромных массивах данных о прошлых поисках (запросы, документы, клики). Система учитывает базовую вероятность клика (Prior Probability), основанную на позиции и предыдущей оценке документа, а затем корректирует её с помощью правил, выявляющих, какие признаки (Features) документа и запроса влияют на выбор пользователя.
  • US7231399B1
  • 2007-06-12
  • Поведенческие сигналы

Как Google персонализирует мобильную выдачу, повышая в ранжировании приложения, которые пользователь часто использует (Affinity Score)
Google рассчитывает «Affinity Score» для мобильных приложений на основе того, как часто и долго пользователь их использует (относительное вовлечение). При поиске с мобильного устройства система повышает в ранжировании результаты (deep links), ведущие в приложения с высоким Affinity Score, делая выдачу более персонализированной.
  • US10248698B2
  • 2019-04-02
  • Персонализация

  • Поведенческие сигналы

  • SERP

Как Google использует навигационные запросы, консенсус кликов и анкорных текстов для определения глобального качества сайта
Google анализирует потоки запросов, чтобы определить, когда пользователи ищут конкретный сайт (навигационный интент). Если запрос явно указывает на документ (через подавляющее большинство кликов пользователей или доминирование в анкор-текстах), этот документ получает «баллы качества». Эти баллы используются как глобальный сигнал качества, повышая ранжирование сайта по всем остальным запросам.
  • US7962462B1
  • 2011-06-14
  • Поведенческие сигналы

  • Ссылки

  • SERP

Как Google использует социальный граф и активность друзей для персонализации и переранжирования результатов поиска
Google использует данные из социального графа пользователя и активность его контактов (лайки, шеры, комментарии, плейлисты) для изменения ранжирования результатов поиска. Контент, одобренный социальным окружением, повышается в выдаче и сопровождается аннотациями, объясняющими причину повышения и указывающими на свежесть социального действия.
  • US8959083B1
  • 2015-02-17
  • Персонализация

  • Поведенческие сигналы

  • SERP

Как Google выбирает сущность для Панели Знаний и решает, когда ее показывать, основываясь на топикальности SERP и CTR
Google использует этот механизм для решения двух задач: выбора наиболее релевантной сущности для Панели Знаний при неоднозначном запросе и определения необходимости показа самой панели. Система анализирует, насколько сущности соответствуют контенту топовых результатов поиска (Topicality Score). Показ панели активируется, если у органических результатов низкий CTR (что указывает на неудовлетворенность пользователей) или если у Google достаточно данных для ее заполнения.
  • US10922326B2
  • 2021-02-16
  • Knowledge Graph

  • SERP

  • Семантика и интент

Как Google запоминает вопросы без авторитетного ответа и автономно сообщает его позже через Ассистента
Патент Google описывает механизм для обработки запросов, на которые в момент поиска нет качественного или авторитетного ответа. Система запоминает информационную потребность и продолжает мониторинг. Когда появляется информация, удовлетворяющая критериям качества (например, в Knowledge Graph), Google автономно доставляет ответ пользователю, часто встраивая его в следующий диалог с Google Assistant, даже если этот диалог не связан с исходным вопросом.
  • US11238116B2
  • 2022-02-01
  • Knowledge Graph

  • Семантика и интент

  • EEAT и качество

seohardcore