SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google использует распознавание лиц для индексирования видео и понимания связей между людьми

VIDEO RETRIEVAL SYSTEM FOR HUMAN FACE CONTENT (Система поиска видеоконтента по человеческим лицам)
  • US8401252B2
  • Google LLC
  • 2010-12-20
  • 2013-03-19
  • Индексация
  • Мультимедиа
  • Knowledge Graph
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google использует систему для автоматического обнаружения, отслеживания и распознавания лиц в видеоконтенте. Это позволяет индексировать видео не только по метаданным, но и по конкретным людям, присутствующим в кадре. Система может определять сегменты с участием конкретного человека, даже если он временно покидал кадр, а также строить графы взаимодействий, показывая, кто с кем появлялся в видео. Это критически важно для понимания содержания видео и Video SEO.

Описание

Какую проблему решает

Патент решает проблему сложности и трудоемкости поиска и индексации больших объемов видеоданных (например, архивов YouTube, видео в интернете, записей с камер наблюдения). Традиционные методы полагаются на метаданные (названия, теги) или транскрипцию речи, что часто бывает недостаточно для точного понимания содержания. Изобретение позволяет автоматически индексировать видеоконтент на основе того, кто именно в нем присутствует, обеспечивая возможность быстрого поиска и извлечения всех сегментов с участием конкретного человека.

Что запатентовано

Запатентована система поиска и индексации видео, которая использует человеческие лица как первичный ключ для организации данных. Система автоматически обнаруживает лица, ассоциирует их с конкретными людьми (даже если они появляются в кадре не непрерывно) и распознает их, сверяя с базой данных. Ключевой особенностью является способность объединять разрозненные по времени появления одного и того же человека (face tracks) в единый индекс с помощью классификатора на основе Байесовских сетей (Bayesian Network based classifier).

Как это работает

Система работает в несколько этапов:

  • Обнаружение лиц (Face Detection): Анализ каждого кадра видео для поиска лиц, определение их местоположения, размера и ориентации.
  • Ассоциация лиц (Face Association): Группировка обнаруженных лиц в face tracks (непрерывные последовательности кадров с одним и тем же человеком) на основе пространственной и временной близости.
  • Распознавание лиц и объединение треков (Face Recognition): Использование сложных методов распознавания (например, Bayesian Network based classifier) для объединения разрозненных face tracks, принадлежащих одному человеку (например, если человек вышел из кадра и вернулся позже).
  • Индексация и идентификация: Сопоставление лиц с базой данных для идентификации известных людей.
  • Интерактивное представление: Создание интерфейса, позволяющего пользователю видеть список всех людей в видео, просматривать сегменты с их участием и анализировать их взаимодействия (Link Graph).

Актуальность для SEO

Высокая. Технология является фундаментальной для сервисов Google, обрабатывающих мультимедийный контент. Она напрямую применяется в Google Photos для группировки фотографий и видео по людям и имеет критическое значение для YouTube и Google Search для глубокого понимания содержания видео, идентификации сущностей (людей) и автоматического создания ключевых моментов (Key Moments) или глав.

Важность для SEO

Патент имеет значительное влияние на стратегию Video SEO (VSEO). Он демонстрирует, что Google обладает технической возможностью понимать видеоконтент на визуальном уровне, идентифицируя конкретных людей (сущности) без опоры на текстовые описания. Это влияет на то, как видео индексируются и ранжируются по запросам, связанным с персоналиями. Если система может точно сегментировать видео по присутствующим лицам, она может более релевантно представлять результаты в поиске (например, через rich snippets).

Детальный разбор

Термины и определения

Face Detection (Обнаружение лиц)
Модуль, который находит лица в отдельных кадрах видео. На выходе выдает список записей (face detection records), содержащих местоположение, размер, ориентацию и оценку уверенности.
Face Association (Ассоциация лиц)
Модуль, который группирует обнаруженные лица, принадлежащие одному и тому же уникальному человеку в видео.
Face Track (Трек лица)
Последовательность обнаружений лица в видеокадрах, которые были сгруппированы вместе на основе пространственной и временной непрерывности. Представляет собой непрерывный сегмент присутствия человека в кадре.
Face-Specific Set of Video Frames (Специфичный для лица набор видеокадров)
Общий набор всех кадров в видео, где появляется конкретное лицо. Может состоять из нескольких разрозненных Face Tracks.
Bayesian Network based classifier (Классификатор на основе Байесовских сетей)
Сложный метод машинного обучения, используемый для распознавания лиц и, что критически важно, для объединения (merging) разрозненных во времени Face Tracks, принадлежащих одному человеку. Он оценивает вероятность того, что два трека принадлежат одному лицу.
Color Signature (Цветовая сигнатура)
Альтернативный метод для объединения Face Tracks, основанный на сравнении среднего значения цвета и ковариации пикселей, связанных с человеком. Для сравнения используется расстояние Махаланобиса.
Link Graph (Граф связей)
Визуализация совместного появления людей в видео. Узлы представляют людей, а ребра (связи) указывают на факт их взаимодействия или одновременного присутствия в кадре. Толщина ребра может отражать продолжительность взаимодействия.
Person Record (Запись о человеке)
Информация, хранящаяся в базе данных для идентифицированного человека (имя, должность и т.д.).

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает основной метод обработки видеоданных для индексации по лицам.

  1. Система обнаруживает человеческие лица в видеокадрах.
  2. Для обнаруженного лица идентифицируется набор кадров (face-specific set), независимо от того, присутствует ли лицо в них непрерывно.
  3. Кадры группируются в face tracks (непрерывные сегменты).
  4. Система объединяет (merging) два или более face tracks, которые разрознены во времени, используя метод распознавания лиц, основанный на Bayesian Network based classifier.
  5. Пользователю предоставляется возможность просматривать итоговые видеосегменты, специфичные для данного лица, на основе этого объединения.

Ядро изобретения — это способность связать разрозненные появления одного и того же человека в видео с помощью сложного классификатора (Байесовской сети), что позволяет создать полный индекс присутствия человека в видео.

Claim 18 (Независимый пункт): Описывает метод отслеживания неидентифицированных лиц.

  1. Система обнаруживает лица.
  2. Система указывает на одно или более "несопоставленных" (unmatched) лиц на основе сравнения с базой данных (т.е. лица, которые не удалось распознать).
  3. Система отслеживает это несопоставленное лицо по всему видео, определяя набор кадров с его участием, используя Bayesian Network based classifier, независимо от временной непрерывности.

Это демонстрирует, что система способна отслеживать и индексировать людей, даже если она не знает, кто они, основываясь исключительно на визуальных характеристиках лица.

Claim 16 (Зависимый): Описывает создание графа связей.

Система отображает совместное появление двух человеческих лиц в виде link graph, где каждый узел представляет отдельное обнаруженное лицо, независимо от статуса его идентификации.

Где и как применяется

Изобретение применяется на этапе обработки и анализа мультимедийного контента.

INDEXING – Индексирование и извлечение признаков
Это основной этап применения патента. При индексации видеоконтента (например, загруженного на YouTube или найденного в вебе) система анализирует визуальный ряд для извлечения признаков.

  • Извлечение Сущностей (Entity Extraction): Система использует описанные механизмы (Face Detection, Association, Recognition) для идентификации того, какие люди (сущности) присутствуют в видео.
  • Сегментация Контента: Система определяет временные метки (timestamps) для каждого человека, создавая Face-Specific Video Segments.
  • Анализ Взаимодействий: Система вычисляет Link Graph, определяя, какие сущности взаимодействуют друг с другом в контексте видео.

Эти данные сохраняются в индексе и аннотациях к видео.

RANKING / METASEARCH / RERANKING
Данные, извлеченные на этапе индексирования, могут использоваться на финальных этапах ранжирования и формирования выдачи:

  • Оценка Релевантности: Наличие в видео человека, соответствующего запросу пользователя, может повысить релевантность видео.
  • Формирование SERP Features: Извлеченные данные о времени присутствия конкретных лиц напрямую используются для генерации функций типа "Key Moments" (Ключевые моменты) в результатах поиска видео, позволяя пользователю перейти сразу к нужному сегменту.

Входные данные:

  • Оцифрованные видеоданные (Video Data).
  • База данных известных лиц (Database 31) для распознавания.

Выходные данные:

  • Индекс людей, присутствующих в видео.
  • Face-Specific Video Segments (временные метки начала и конца для каждого человека).
  • Идентификаторы распознанных людей (Person Records).
  • Link Graph (данные о взаимодействиях).

На что влияет

  • Конкретные типы контента: В первую очередь влияет на видеоконтент (YouTube, видео, встроенные на веб-страницы). Особенно сильно влияет на интервью, обзоры, влоги, новостийные сюжеты — контент, где ключевую роль играют люди.
  • Специфические запросы: Влияет на информационные и навигационные запросы, связанные с персоналиями (например, "интервью с [Имя]", "[Имя] о [Тема]").
  • Сущности (Entities): Патент напрямую связан с распознаванием и индексированием сущностей (людей) в мультимедийном контенте.

Когда применяется

Алгоритм применяется в процессе индексации или переиндексации видеоконтента. Это не процесс реального времени, происходящий при запросе пользователя, а предварительная обработка контента для извлечения и сохранения метаданных о присутствующих в нем людях.

Пошаговый алгоритм

Процесс анализа видео для индексации по лицам:

  1. Получение и декодирование видео: Система получает доступ к видеофайлу и декодирует его в последовательность кадров.
  2. Обнаружение лиц (Face Detection): Каждый кадр обрабатывается для поиска лиц. Для каждого найденного лица фиксируется его положение, размер, ориентация и оценка уверенности.
  3. Создание первичных треков (Face Tracking): Система анализирует последовательные кадры и объединяет обнаружения, которые пространственно близки и следуют друг за другом во времени, в первичные Face Tracks. Этот шаг обрабатывает непрерывное присутствие человека в кадре.
  4. Извлечение признаков для распознавания: Для каждого Face Track извлекаются визуальные признаки (например, с помощью вейвлет-преобразований или анализа цветовых сигнатур).
  5. Объединение разрозненных треков (Track Merging): Система сравнивает все Face Tracks между собой для идентификации треков, принадлежащих одному человеку, но разделенных во времени.
    • Используется Bayesian Network based classifier для оценки сходства между треками.
    • В альтернативном варианте может использоваться сравнение Color Signature с помощью расстояния Махаланобиса.
    • Если сходство превышает порог, треки объединяются.
  6. Идентификация (Face Recognition): Объединенные треки (представляющие одного уникального человека) сравниваются с базой данных известных лиц для их идентификации.
  7. Анализ взаимодействий (Link Graph Generation): Система анализирует временные метки объединенных треков. Если треки разных людей пересекаются во времени (они одновременно в кадре), между ними устанавливается связь в Link Graph. Вес связи рассчитывается на основе длительности пересечения.
  8. Индексация результатов: Система сохраняет идентификаторы людей (распознанных или нераспознанных), временные метки их присутствия (Face-Specific Video Segments) и данные Link Graph в поисковом индексе.

Какие данные и как использует

Данные на входе

Патент фокусируется исключительно на анализе визуальной информации.

  • Мультимедиа факторы: Система использует пиксельные данные из видеокадров. Это включает:
    • Визуальные характеристики лиц: Используются для обнаружения и распознавания. В патенте упоминается использование вейвлет-преобразований (wavelet transform) как части процесса создания Bayesian Network based classifier.
    • Цветовые данные (Color Signatures): RGB значения пикселей, которые могут быть преобразованы в YIQ или YUV для отделения яркости от цветности. Используются для сегментации человека в кадре и как альтернативный метод объединения треков.
  • Временные факторы: Временные метки (timestamps) кадров критически важны для отслеживания (tracking) и анализа взаимодействий (Link Graph).

Какие метрики используются и как они считаются

  • Оценка уверенности (Confidence measurement): Метрика, выдаваемая модулем обнаружения лиц, указывающая на вероятность того, что обнаруженный объект является лицом.
  • Bayesian Network Classifier Output: Выходные данные классификатора, используемые для определения того, принадлежат ли два разрозненных Face Tracks одному человеку.
  • Расстояние Махаланобиса (Mahalanobis distance): Используется при сравнении Color Signatures для объединения треков. Формула, указанная в патенте:

Выводы

  1. Индексация видео по сущностям (людям): Патент подтверждает, что Google систематически анализирует видеоконтент для идентификации присутствующих в нем людей. Лица используются как первичный ключ для индексации и поиска видео.
  2. Глубокое понимание содержания видео: Система не просто обнаруживает лица, но и точно отслеживает их присутствие на протяжении всего видео (Face-Specific Video Segments), даже если человек временно исчезает из кадра. Это достигается за счет сложных методов машинного обучения (Bayesian Network based classifier).
  3. Визуальная верификация контента: Google может визуально подтвердить, присутствует ли заявленный человек в видео, что снижает эффективность манипуляций с метаданными и кликбейта.
  4. Анализ связей и контекста (Link Graph): Система автоматически строит граф взаимодействий между людьми в видео. Это позволяет поисковой системе понимать контекстуальные связи между сущностями (кто кого интервьюировал, кто с кем выступал), что является важным сигналом для Knowledge Graph и E-E-A-T.
  5. Основа для SERP Features: Описанная технология сегментации видео по лицам является технической основой для реализации функций типа "Key Moments" в поисковой выдаче, позволяя направлять пользователя к тем частям видео, где присутствует интересующий его человек.

Практика

Best practices (это мы делаем)

  • Оптимизация под сущности в VSEO: При создании видеоконтента четко определяйте ключевых участников (сущностей). Убедитесь, что они явно присутствуют и распознаваемы. Это поможет Google правильно индексировать видео по запросам, связанным с этими людьми.
  • Улучшение визуального качества для распознавания: Обеспечивайте хорошее освещение и четкость изображения лиц ключевых участников. Чем лучше качество изображения, тем выше вероятность корректного обнаружения и распознавания системой, что улучшает индексацию видео.
  • Структурирование видео и Key Moments: Создавайте видео так, чтобы его структура была логичной. Знание того, что Google может сегментировать видео по лицам, позволяет оптимизировать контент под автоматическое создание "Key Moments". Например, при смене спикера или темы убедитесь, что новый спикер четко виден.
  • Анализ взаимодействий (E-E-A-T): Используйте видео для демонстрации связей между экспертами. Если ваш контент показывает взаимодействие авторитетных личностей (например, интервью с известным экспертом), система Google может зафиксировать эту связь через Link Graph, что потенциально усиливает сигналы E-E-A-T вашего контента.

Worst practices (это делать не надо)

  • Кликбейт и манипуляции с метаданными: Использование имен известных людей в заголовках и описаниях видео, если эти люди фактически не присутствуют в контенте. Описанная технология позволяет Google визуально верифицировать присутствие человека, делая такой подход неэффективным или рискованным.
  • Игнорирование визуального ряда: Фокусироваться исключительно на транскрипции и метаданных для VSEO. Визуальное содержание и присутствие сущностей играют ключевую роль в индексации.
  • Низкое качество продакшена: Видео, где лица постоянно размыты, плохо освещены или заслонены объектами, будет плохо индексироваться этой системой, что может снизить его видимость в поиске по персоналиям.

Стратегическое значение

Этот патент подчеркивает стратегическую важность мультимедийного контента и необходимость его оптимизации на уровне сущностей (Entity-based SEO). Google стремится понимать содержание любого типа контента так же глубоко, как и текст. Для Video SEO это означает, что присутствие авторитетных сущностей и их взаимодействие являются важными факторами, которые система может распознать и учесть. Долгосрочная стратегия должна включать создание качественного видеоконтента, который четко демонстрирует экспертизу и связи в нише.

Практические примеры

Сценарий: Оптимизация видео-интервью на YouTube

  1. Задача: Продвинуть видео-интервью с известным экспертом в нише.
  2. Применение знаний из патента: Мы знаем, что Google будет пытаться идентифицировать обоих участников (интервьюера и эксперта) и сегментировать видео по их присутствию (Face-Specific Segments), а также зафиксирует их взаимодействие (Link Graph).
  3. Действия:
    • Продакшн: Снимать интервью так, чтобы оба участника были хорошо освещены и их лица были четко видны на протяжении большей части видео (особенно когда они говорят). Использовать планы, где оба участника в кадре, для усиления сигнала взаимодействия.
    • Метаданные: Четко указать имена обоих участников в заголовке, описании и тегах, чтобы помочь системе связать распознанные лица с сущностями.
    • Структура: Разбить интервью на логические части (главы). Убедиться, что в начале каждого сегмента спикер четко виден. Это поможет автоматической генерации Key Moments.
  4. Ожидаемый результат: Google корректно индексирует видео. Оно появляется в поиске как по имени интервьюера, так и по имени эксперта. В поисковой выдаче автоматически формируются Key Moments, позволяющие перейти к ответам эксперта. Фиксация связи между участниками усиливает авторитетность канала.

Вопросы и ответы

Как этот патент влияет на оптимизацию видео для YouTube?

Он имеет прямое влияние. Патент описывает механизм, который, вероятно, используется YouTube (принадлежащим Google) для анализа того, кто присутствует в видео. Это означает, что система может идентифицировать авторов, гостей и знаменитостей визуально. Для оптимизации важно убедиться, чтобы ключевые участники были четко видны, что помогает системе правильно индексировать контент и потенциально использовать его для Key Moments.

Означает ли это, что метаданные (заголовки, теги) больше не важны для VSEO?

Нет, метаданные по-прежнему критически важны. Они предоставляют контекст и помогают поисковой системе понять тематику видео и связать распознанные лица с конкретными сущностями (именами людей). Однако этот патент показывает, что Google также использует визуальный анализ для верификации и дополнения метаданных. Лучшая стратегия — это согласованность между метаданными и визуальным контентом.

Что такое "Граф связей" (Link Graph) в контексте видео и как он влияет на SEO?

Link Graph в этом патенте — это карта взаимодействий между людьми внутри видео. Если два человека появляются в кадре одновременно, система фиксирует связь между ними. Для SEO это важно, так как демонстрирует контекстуальные отношения между сущностями (например, авторитетный эксперт дает интервью вашему сотруднику). Это может способствовать построению Knowledge Graph и усилению сигналов E-E-A-T вашего контента.

Может ли эта система распознать любого человека в видео?

Система может обнаружить и отслеживать (Face Association) практически любого человека, если его лицо достаточно четко видно. Однако распознать (Face Recognition) и идентифицировать его (присвоить имя) система сможет, только если этот человек уже присутствует в ее базе данных (например, является известной личностью или уже был ранее идентифицирован в других контекстах, например, в Google Photos).

Что такое объединение разрозненных треков (Merging disjoint face tracks)?

Это ключевая функция системы. Если человек появляется в начале видео, затем выходит из кадра и возвращается в конце, система создает два отдельных трека (Face Tracks). Функция объединения использует сложные алгоритмы (Bayesian Network based classifier), чтобы понять, что это один и тот же человек, и объединить эти сегменты в единый индекс для этого человека.

Как SEO-специалист может повлиять на работу этого алгоритма?

Напрямую повлиять на алгоритм распознавания лиц нельзя. Однако можно адаптировать стратегию создания контента: улучшать качество съемки, обеспечивать хорошую видимость лиц спикеров, логично структурировать видео и следить за согласованностью метаданных и визуального ряда. Это облегчит работу системы и улучшит индексацию видео.

Влияет ли этот патент на ранжирование обычных веб-страниц?

Прямого влияния на ранжирование текстового контента нет. Однако, если веб-страница содержит встроенное видео как основной контент, то качество анализа этого видео с помощью описанной системы может повлиять на общую оценку релевантности и качества страницы. Также, если видео появляется в выдаче с Rich Snippets (например, Key Moments), это увеличивает привлекательность результата.

Что важнее для системы: цветовая сигнатура или Байесовский классификатор?

Судя по формулировкам патента (Claims), основным и защищенным методом для объединения разрозненных треков является Bayesian Network based classifier. Color Signature упоминается в описании как один из возможных или дополнительных методов, но именно Байесовский подход выделен как ключевой для надежного распознавания лиц и трекинга.

Как эта технология связана с Key Moments в поиске Google?

Эта технология является фундаментом для Key Moments. Чтобы показать пользователю определенный сегмент видео в ответ на его запрос, поисковая система должна знать, что происходит в этом сегменте. Описанная система позволяет Google точно определить, когда конкретный человек появляется или говорит, что может быть использовано для автоматической генерации временных меток для Key Moments.

Применяется ли эта технология только к человеческим лицам?

Хотя патент сфокусирован на лицах, в тексте (в частности, Claim 22, который не был разобран выше, но важен) упоминается, что видео с нечеловеческими объектами (non-human objects) может быть обработано аналогичным образом. Это предполагает, что базовые принципы обнаружения, отслеживания и использования классификаторов для индексации могут применяться и к другим объектам (например, автомобилям, животным, продуктам), что расширяет возможности визуального поиска Google.

Похожие патенты

Как Google использует теги внутри видео, социальные связи и одобрения для генерации персонализированных рекомендаций
Google использует систему рекомендаций, анализирующую элементы (людей, объекты, места), отмеченные тегами непосредственно внутри видео. Система находит связанный контент, содержащий те же элементы. Если в видео отмечен человек, система может рекомендовать контент, который этот человек одобрил (смотрел, лайкнул), учитывая силу социальной связи между ним и зрителем, при строгом соблюдении настроек конфиденциальности.
  • US9639634B1
  • 2017-05-02
  • Персонализация

  • Мультимедиа

  • Поведенческие сигналы

Как Google использует визуальное сходство для связывания изображений и видео, кластеризации выдачи и обогащения метаданных
Google анализирует визуальное содержимое изображений и ключевых кадров видео для выявления сходств. Это позволяет связывать разнотипный контент, даже если у него мало текстовых данных. Система использует эти связи для переноса метаданных (например, ключевых слов или геопозиции) от одного ресурса к другому, а также для кластеризации и смешивания изображений и видео в результатах поиска.
  • US9652462B2
  • 2017-05-16
  • Мультимедиа

  • SERP

  • Семантика и интент

Как Google создает видео-нарезки (Composite Videos) на лету, используя текстовый запрос и анализ аудиодорожек
Google может анализировать аудиодорожки (транскрипты) видео для идентификации конкретных сегментов, где произносятся слова из запроса пользователя. Система автоматически объединяет эти сегменты из разных видео в одно новое сводное видео (Composite Video). Для выбора сегментов используются метрики релевантности, популярности и свежести исходного контента.
  • US9672280B2
  • 2017-06-06
  • Мультимедиа

  • Индексация

  • Семантика и интент

Как Google использует анализ видео и аудио для построения графов зависимостей между эпизодами сериализованного контента
Google анализирует медиаконтент (например, эпизоды сериалов или обучающих курсов), чтобы автоматически понять, какие эпизоды связаны между собой. Изучая фрагменты повторов, транскрипты и визуальные элементы (включая распознавание лиц), система строит «Граф Зависимостей». Это позволяет рекомендовать пользователям необходимые для понимания предыдущие эпизоды, улучшая организацию и потребление сериализованного контента.
  • US9558407B1
  • 2017-01-31
  • Мультимедиа

  • Семантика и интент

  • Персонализация

Как Google связывает медиаконтент (видео) с Графом Знаний для улучшения поиска и автоматического тегирования
Google использует систему для связи медиаконтента (например, видео на YouTube) со структурированными данными из Базы Знаний (Knowledge Graph). Описывается, как создаются ассоциации между видео и сущностями путем анализа метаданных, что позволяет пользователям искать контент по идентификаторам сущностей и автоматически тегировать медиафайлы, улучшая их обнаруживаемость.
  • US9189528B1
  • 2015-11-17
  • Knowledge Graph

  • Семантика и интент

  • Мультимедиа

Популярные патенты

Как Google использует историю запросов, сделанных на Картах, для ранжирования локальных результатов и рекламы
Google анализирует, что пользователи ищут, когда просматривают определенную географическую область на карте (Viewport). Эта агрегированная история запросов используется для определения популярности локальных бизнесов и контента в этом конкретном районе. Результаты, которые часто запрашивались в этой области, особенно недавно, получают значительное повышение в ранжировании.
  • US9129029B1
  • 2015-09-08
  • Local SEO

  • Поведенческие сигналы

  • Свежесть контента

Как Google использует гибридную классификацию и данные о кликах пользователей для точного определения тематики контента
Google использует многоэтапный процесс для классификации контента в детальные иерархические категории. Система комбинирует традиционные методы классификации с анализом поисковых запросов и кликов пользователей (подтвержденных результатов поиска). Это позволяет точно определить узкоспециализированную тематику документа, фильтруя нерелевантные категории и взвешивая релевантность на основе TF-IDF и глубины иерархии.
  • US8145636B1
  • 2012-03-27
  • Семантика и интент

  • Поведенческие сигналы

Как Google автоматически определяет важность различных частей веб-страницы (DOM-узлов) для ранжирования
Google анализирует коллекции похожих структурированных документов (например, товарных карточек) и создает общую модель (DOM). Затем система изучает логи запросов и кликов, чтобы понять, какие части структуры (заголовки, основной контент, реклама) чаще всего содержат ключевые слова из успешных запросов. Этим частям присваивается больший вес при расчете релевантности.
  • US8538989B1
  • 2013-09-17
  • Семантика и интент

  • Индексация

  • Структура сайта

Как Google определяет и ранжирует вертикали поиска (Web, Images, News, Local) на основе интента запроса и профиля пользователя
Патент описывает фундаментальный механизм Универсального Поиска (Universal Search). Система генерирует результаты из разных индексов (Web, Картинки, Новости, Карты) и вычисляет «Оценку Вероятности» (Likelihood Value) для каждой категории. Эта оценка определяет, какая вертикаль наиболее релевантна интенту запроса. Для расчета используются как агрегированные данные о поведении всех пользователей по схожим запросам, так и индивидуальный профиль пользователя.
  • US7966309B2
  • 2011-06-21
  • Семантика и интент

  • Персонализация

  • SERP

Как Google использует данные веб-поиска и клики пользователей для классификации бизнесов и построения иерархии категорий
Google анализирует логи веб-поиска (введенные ключевые слова и последующие клики по результатам), чтобы понять, как пользователи интуитивно классифицируют бизнесы. Эти данные используются для автоматического построения динамической иерархической структуры категорий. Эта структура затем применяется для улучшения точности поиска, в частности, для оптимизации моделей распознавания речи в голосовых системах.
  • US7840407B2
  • 2010-11-23
  • Поведенческие сигналы

  • Семантика и интент

  • Структура сайта

Как Google использует CTR и E-E-A-T сигналы для определения контекста ссылок и оценки качества внешних упоминаний
Google использует двухэтапный механизм для анализа внешних комментариев (например, блог-постов). Сначала система определяет истинный объект обсуждения, если в комментарии несколько ссылок, анализируя CTR, длину URL и тематику. Затем она оценивает качество комментария, используя рейтинг автора, авторитетность источника, свежесть и обратную связь пользователей, чтобы отобрать наиболее релевантный контент.
  • US8656266B2
  • 2014-02-18
  • Ссылки

  • EEAT и качество

  • Свежесть контента

Как Google использует поведение пользователей для определения синонимичности фраз в запросах, связанных с сущностями
Google анализирует поведение пользователей (клики по результатам поиска), чтобы определить, означают ли разные фразы одно и то же, когда они связаны с одним типом сущности (например, «достопримечательности в <Город>» против «места для посещения в <Город>»). Если пользователи кликают на одни и те же документы для разных фраз, система считает эти фразы эквивалентными, что помогает Google понимать синонимы и улучшать результаты поиска.
  • US10073882B1
  • 2018-09-11
  • Семантика и интент

  • Поведенческие сигналы

Как Google автоматически распознает сущности в тексте и связывает их в Knowledge Graph с помощью динамических поисковых ссылок
Google использует автоматизированную систему для поддержания связей между сущностями (объектами) в своем хранилище фактов (Knowledge Graph). Система сканирует текст, статистически определяет значимые фразы и сверяет их со списком известных объектов. При совпадении создается динамическая «поисковая ссылка» вместо фиксированного URL. Это позволяет Google постоянно обновлять связи по мере добавления новых знаний.
  • US8260785B2
  • 2012-09-04
  • Knowledge Graph

  • Семантика и интент

  • Ссылки

Как Google использует исторические данные о поведении пользователей для сохранения эффективных синонимов
Google постоянно обновляет модели, определяющие синонимы для расширения запросов. Этот патент описывает защитный механизм: если новая модель отключает синоним, который исторически давал хорошие результаты (пользователи были довольны выдачей), система автоматически вернет этот синоним в работу, опираясь на накопленные данные о поведении пользователей.
  • US8762363B1
  • 2014-06-24
  • Семантика и интент

  • Поведенческие сигналы

  • SERP

Как Google создает мгновенные интерактивные результаты на SERP, предварительно загружая и персонализируя скрытый контент
Google использует механизм для создания интерактивных блоков ответов (Answer Boxes), таких как Погода или Панели Знаний. Система отправляет пользователю не только видимый результат, но и дополнительный скрытый контент («карточки»), выбранный на основе истории взаимодействий пользователя. При взаимодействии с блоком (свайп или клик) дополнительный контент отображается мгновенно, без отправки нового запроса на сервер.
  • US9274683B2
  • 2016-03-01
  • SERP

  • Персонализация

  • Поведенческие сигналы

seohardcore