Close Menu
    Telegram
    SEO HARDCORE
    • Разборы патентов
      • Патенты Google
      • Патенты Яндекс
    • Скоро
      SEO инструменты
    • Скоро
      SEO аналитика
    SEO HARDCORE
    Разборы патентов • Патенты Google

    Как Google использует трехэтапную систему фингерпринтинга (Content ID) для обнаружения дубликатов видео и аудио

    DETECTION AND CLASSIFICATION OF MATCHES BETWEEN TIME-BASED MEDIA (Обнаружение и классификация совпадений между медиафайлами, основанными на времени)
    • US8238669B2
    • Google LLC
    • 2012-08-07
    • 2008-07-16
    2008 Shumeet Baluja Мультимедиа Патенты Google

    Google использует масштабируемую систему для обнаружения полных или частичных совпадений в видео и аудио контенте. Система генерирует компактные цифровые отпечатки (фингерпринты) и применяет трехэтапный процесс: быстрый поиск кандидатов с помощью Locality-Sensitive Hashing (LSH), точная классификация с использованием машинного обучения и объединение результатов. Это позволяет идентифицировать контент даже при изменении качества или скорости воспроизведения.

    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх

    Описание

    Какую задачу решает

    Патент решает проблему эффективного и масштабируемого управления огромными библиотеками медиафайлов (видео и аудио), такими как YouTube. Основные задачи: автоматическая идентификация неавторизованного контента (защищенного авторским правом), обнаружение дубликатов для экономии места хранения и улучшение организации контента. Система должна быть устойчива к стандартным искажениям (транскодирование, шум) и изменениям скорости воспроизведения, а также работать в условиях жестких временных ограничений.

    Что запатентовано

    Запатентована система и метод для обнаружения полных или частичных совпадений между медиафайлами с использованием цифровых отпечатков (fingerprints). Изобретение описывает трехэтапный процесс: быстрая генерация короткого списка кандидатов с использованием Locality-Sensitive Hashing (LSH), детальная оценка этих кандидатов с помощью машинно-обученного классификатора (Classifier) и объединение подтвержденных локальных совпадений во времени.

    Как это работает

    Система работает следующим образом:

    • Фингерпринтинг и Индексация: Медиафайлы делятся на короткие сегменты (0.5-5.0 секунд), для которых генерируются sub-fingerprints. Они индексируются в Reverse Index Table с помощью LSH keys.
    • Этап 1 (Генерация кандидатов): Система быстро ищет эталонные видео с похожими LSH keys. Используются оптимизации, такие как Blacklisting (игнорирование слишком частых ключей) и обработка в порядке дискриминативности (редкости).
    • Этап 2 (Классификация): Кандидаты выравниваются по времени с входным видео (например, с помощью Dynamic Time Warping (DTW)). Генерируется вектор признаков совпадения, который оценивается Classifier для определения валидности совпадения и расчета Confidence Score.
    • Этап 3 (Объединение): Валидные локальные совпадения из разных временных фрагментов объединяются в финальный результат.

    Актуальность для SEO

    Высокая. Описанная технология является фундаментальной для систем идентификации контента, таких как YouTube Content ID. Методы фингерпринтинга, LSH для масштабируемого поиска и использование машинного обучения для классификации совпадений остаются ключевыми технологиями для обработки мультимедийного контента в Google.

    Важность для SEO

    Влияние на традиционное веб-SEO низкое, но стратегическое значение для Video SEO (VSEO) и YouTube высокое. Патент не описывает алгоритмы ранжирования, но детально раскрывает инфраструктуру, используемую Google для идентификации уникальности и дублирования медиаконтента. Понимание этих механизмов критически важно для управления видимостью видео, решения проблем каноникализации медиафайлов и соблюдения авторских прав.

    Детальный разбор

    Термины и определения

    Blacklisting (Черный список)
    Механизм оптимизации, при котором слишком частые LSH Keys (не помогающие различать контент) исключаются из стандартного индекса. Level 1: ключ встречается в слишком большом проценте видео. Level 2: ключ встречается слишком часто в абсолютном выражении.
    Chunk (Фрагмент)
    Временной отрезок входного видео (например, 10 секунд), который обрабатывается независимо на Этапах 1 и 2.
    Classifier (Классификатор)
    Модель машинного обучения (например, нейронная сеть), используемая на Этапе 2 для определения, является ли кандидат истинным или ложным совпадением, на основе вектора признаков.
    Confidence Score (Оценка уверенности)
    Метрика, выводимая классификатором, указывающая на вероятность того, что совпадение является верным.
    Discriminative (Дискриминативный)
    Характеристика LSH key или sub-fingerprint, указывающая на его редкость в базе данных. Наиболее дискриминативные (редкие) элементы обрабатываются первыми.
    DTW (Dynamic Time Warping, Динамическая трансформация временной шкалы)
    Алгоритм для выравнивания двух временных последовательностей, которые могут различаться по скорости. Используется для сопоставления видео, даже если скорость воспроизведения изменена.
    Figure of Merit (Показатель качества)
    Метрика на Этапе 1 для предварительного отбора эталонных видео. Рассчитывается путем суммирования количества совпадений LSH keys в окне, равном длине входного видео.
    Fingerprint (Цифровой отпечаток)
    Компактное представление характеристик медиафайла. Состоит из последовательности Sub-fingerprints.
    LSH (Locality-Sensitive Hashing, Локально-чувствительное хеширование)
    Метод для быстрого приблизительного поиска ближайших соседей. Используется для индексации фингерпринтов.
    LSH Key (LSH Ключ)
    Подмножество значений из Sub-fingerprint. Используется как ключ для поиска в Reverse Index Table.
    Premium Content (Премиум-контент)
    Контент, требующий повышенного уровня защиты (например, контент правообладателей). Для него могут применяться более низкие пороги срабатывания.
    Reverse Index Table (Обратная индексная таблица)
    Структура данных, которая отображает LSH Keys на список идентификаторов эталонных Sub-fingerprints (Video@Offset), содержащих этот ключ.
    Sub-fingerprint (Суб-отпечаток)
    Вектор значений, представляющий короткий временной сегмент медиафайла (например, 0.5-5.0 секунд).

    Ключевые утверждения (Анализ Claims)

    Claim 1 (Независимый пункт): Описывает основной метод обнаружения дубликатов видеоконтента.

    1. Система хранит эталонные отпечатки (reference fingerprints), состоящие из суб-отпечатков (sub-fingerprints) для временных сегментов.
    2. Система получает входной отпечаток (input fingerprint).
    3. Система выбирает подмножество эталонных сегментов в качестве кандидатов на основе частичного совпадения их sub-fingerprints с входным отпечатком.
    4. Система классифицирует каждого кандидата как совпадающего или несовпадающего, используя машинно обученный классификатор (machine-learned classifier).
    5. Система идентифицирует совпадающее эталонное видео на основе классифицированных сегментов.

    Claim 3 (Зависимый от 1): Вводит концепцию Figure of Merit.

    Для каждого эталонного видео определяется figure of merit на основе временно-локализованных совпадений. Выбор кандидатов основан на этом показателе.

    Claim 4 и 5 (Зависимые от 1): Описывают оптимизацию через сортировку по дискриминативности.

    Эталонные суб-отпечатки (Claim 4) или ключи суб-отпечатков (Claim 5) сортируются от наиболее дискриминативных к наименее дискриминативным. Выбор кандидатов основывается на этом порядке сортировки, что повышает эффективность поиска.

    Claim 6 (Зависимый от 1): Подчеркивает важность временной последовательности.

    Определяются темпорально последовательные совпадения между входными и эталонными sub-fingerprints. Выбор кандидатов основан на этих последовательных совпадениях.

    Claim 11 и 12 (Зависимые от 8): Описывают механизм черных списков (blacklisting) в обратном индексе.

    Обратный индекс хранит специальный идентификатор для ключа, если он встречается слишком часто (превышает порог по проценту видео — Claim 11, или по абсолютному количеству — Claim 12). Это позволяет игнорировать неинформативные ключи.

    Где и как применяется

    Изобретение является инфраструктурным и применяется в системах идентификации контента (например, Content ID), а не в стандартном процессе ранжирования поиска.

    CRAWLING – Сканирование и Сбор данных
    Система получает входное видео (input video) через сервер приема (Ingest Server), например, при загрузке пользователем на YouTube.

    INDEXING – Индексирование и извлечение признаков
    Основной этап применения патента.

    1. Фингерпринтинг (Офлайн и Онлайн): Fingerprinting Module генерирует fingerprints для эталонных и входных видео.
    2. Индексация (Офлайн): Строится Reverse Index Table (LSH Table) для эталонных видео, применяется Blacklisting.
    3. Сопоставление (Онлайн): Matching Module выполняет трехэтапный процесс (Генерация кандидатов, Классификация, Объединение) для сравнения входного видео с индексом.

    Входные данные:

    • Входной медиафайл (видео/аудио).
    • База эталонных отпечатков (Fingerprint Repository).
    • Обратный индекс (Reverse Index Table).
    • Метаданные (например, статус Premium Content).

    Выходные данные:

    • Результаты совпадения (Match Results): список эталонных видео (или их частей), совпадающих с входным видео, с указанием временных меток и Confidence Scores.

    На что влияет

    • Типы контента: Влияет на все типы временны́х медиаданных (видео и аудио).
    • Конкретные ниши: Наибольшее влияние в нишах, где критично соблюдение авторских прав (музыка, фильмы) и на платформах с пользовательским контентом (UGC).
    • Форматы контента: Система устойчива к транскодированию, шуму и изменениям скорости воспроизведения (в патенте упоминается до 15%).

    Когда применяется

    • Условия применения: Алгоритм применяется при обработке новых медиафайлов для сравнения их с существующей базой данных.
    • Триггеры активации: Загрузка нового контента пользователем или добавление нового эталонного файла правообладателем.
    • Особые случаи: Для Premium Content могут применяться более низкие пороги обнаружения совпадений.

    Пошаговый алгоритм

    Процесс разделен на предварительную обработку и три основных этапа сопоставления.

    Предварительная обработка и Индексация (Офлайн):

    1. Генерация отпечатков: Эталонные видео разделяются на перекрывающиеся сегменты (0.5-5.0 сек), для каждого генерируется Sub-fingerprint.
    2. Создание обратного индекса: Sub-fingerprints разбираются на LSH Keys. Создается Reverse Index Table.
    3. Черный список (Blacklisting): Идентифицируются и помечаются слишком частые LSH Keys (Level 1 и Level 2).

    Обработка запроса (Онлайн):

    Входное видео поступает в систему и для него генерируется Input Fingerprint.

    Этап 1: Генерация списка кандидатов

    1. Извлечение и Поиск ключей: Уникальные LSH Keys из входного видео ищутся в Reverse Index Table.
    2. Предварительный отбор: Рассчитывается Figure of Merit для эталонных видео на основе плотности совпадений ключей во времени. Формируется список начальных кандидатов.
    3. Разделение на фрагменты (Chunks): Входное видео делится на Chunks (например, по 10 секунд).
    4. Сортировка по дискриминативности: Внутри каждого Chunk, Sub-fingerprints и LSH Keys сортируются от наиболее редких (дискриминативных) к частым. Обработка начинается с редких.
    5. Голосование (Hough Transform): Совпадения между входным (смещение X) и эталонным (смещение Y) суб-отпечатками голосуют за время начала совпадения (Y-X+1). Голоса агрегируются.
    6. Финальный отбор кандидатов: Выбор наиболее поддерживаемых пар (Video, Offset) для Этапа 2 (используя, например, smeared peak picking).

    Этап 2: Оценка кандидатов (Классификация)

    1. Выравнивание: Определяется наилучшее временное выравнивание между входным Chunk и кандидатом (например, с помощью DTW).
    2. Генерация вектора признаков: Создается векторное описание совпадения. Признаки включают: расстояние Хэмминга, процент совпавших векторов, среднеквадратичную ошибку (MSE) пути декодирования, наклон пути и т.д.
    3. Оценка качества: Рассчитывается мера качества совпадения (Quality Measure).
    4. Классификация: Вектор признаков подается на вход Classifier, который определяет валидность совпадения и рассчитывает Confidence Score.

    Этап 3: Объединение и фильтрация кандидатов

    1. Объединение во времени: Валидные совпадения из соседних Chunks объединяются в единое совпадение (Combined Match), если они консистентны по времени и смещению.
    2. Фильтрация: Применяются ограничения (например, минимальная длина, среднее качество) для удаления ложных срабатываний.
    3. Обработка типовых последовательностей: Система может понижать уверенность для типовых сцен (например, «говорящая голова»), если нет подтверждения по другому каналу (например, аудио).

    Какие данные и как использует

    Данные на входе

    • Мультимедиа факторы (Основные): Непосредственно аудио и видео данные. Они преобразуются в Fingerprints, Sub-fingerprints и LSH Keys, которые кодируют пространственные, временные и структурные характеристики медиафайла.
    • Метаданные (Вспомогательные):
      • Обозначение Premium Content (используется для корректировки порогов).
      • Патент упоминает возможность использования в Классификаторе (Этап 2): истории загрузок пользователя и сходства текстовых метаданных (например, anchor text).

    Какие метрики используются и как они считаются

    • Расстояние Хэмминга (Hamming Distance): Используется для сравнения векторов Sub-fingerprints.
    • Figure of Merit: Рассчитывается как максимальная сумма количества совпадений LSH keys во временном окне, соответствующем длине входного видео (реализуется как свертка).
    • Дискриминативность (Discriminative Power): Обратная величина к частоте встречаемости LSH Key или Sub-fingerprint в эталонной базе. Используется для сортировки и Blacklisting.
    • Признаки для Классификатора (Classifier Features): Сложный вектор, включающий:
      • Накопленное расстояние Хэмминга.
      • Процент совпавших векторов при разных порогах (например, 80%, 60%).
      • Среднеквадратичная ошибка (MSE) и наклон (Slope) линейной аппроксимации (LSE-fit) пути декодирования DTW.
      • Статистика популяции (среднее, стандартное отклонение мер качества).
    • Quality Measure (Мера качества): Рассчитывается на основе вектора признаков (например, отношение правдоподобия).
    • Confidence Score (Оценка уверенности): Выходное значение классификатора.
    • Алгоритмы и методы: LSH (поиск), DTW (выравнивание), Преобразование Хафа (голосование), Модели машинного обучения (Classifiers).

    Выводы

    1. Трехэтапная архитектура для баланса скорости и точности: Патент описывает масштабируемую систему идентификации контента. Этап 1 (LSH) обеспечивает скорость, быстро сокращая пространство поиска. Этап 2 (ML Classifier) обеспечивает точность, детально анализируя кандидатов. Этап 3 обеспечивает согласованность результатов во времени.
    2. Оптимизация через редкость и игнорирование шума: Система фокусируется на наиболее уникальных характеристиках контента, обрабатывая наиболее дискриминативные (редкие) ключи первыми. Одновременно она игнорирует неинформативные данные через Blacklisting частых ключей (например, тишина, черные кадры).
    3. Устойчивость к модификациям (Robustness): Система устойчива к изменениям качества и скорости воспроизведения. Это достигается за счет использования устойчивых фингерпринтов и применения DTW для временного выравнивания контента.
    4. Роль машинного обучения в идентификации: Решение о совпадении принимается не просто по порогу сходства, а с помощью сложного Classifier, который анализирует множество признаков качества и характера совпадения.
    5. Идентификация по содержанию: Система идентифицирует медиафайлы на основе их фактического аудиовизуального содержания, а не метаданных.

    Практика

    Патент является инфраструктурным и не дает прямых рекомендаций по факторам ранжирования. Однако он критически важен для стратегий Video SEO и управления контентом на платформах типа YouTube.

    Best practices (это мы делаем)

    • Приоритет абсолютной оригинальности контента: Для VSEO критически важно создавать уникальный видео и аудио контент. Система эффективно выявляет полные и частичные совпадения. Чтобы контент считался уникальным, он должен значительно отличаться от эталонов на уровне аудиовизуальных характеристик.
    • Управление правами (для правообладателей): Если вы создаете Premium Content, необходимо использовать системы типа Content ID (основанные на этом патенте) для загрузки эталонов и защиты от неавторизованного использования.
    • Создание дискриминативного контента: Избегайте длинных статичных сцен, тишины или стандартных заставок. Контент с богатым и разнообразным аудиовизуальным рядом лучше идентифицируется системой.

    Worst practices (это делать не надо)

    • Попытки обхода систем идентификации легкими модификациями: Изменение скорости, добавление шума, зеркальное отражение, изменение кодировки или легкое кадрирование неэффективны. Система устойчива к таким модификациям благодаря DTW, устойчивым фингерпринтам и возможности генерации нескольких отпечатков (например, для зеркальных версий).
    • Создание дубликатов или компиляций чужого контента: Загрузка контента, состоящего из чужих материалов, будет обнаружена. Это приведет к проблемам с монетизацией, видимостью или блокировкой на платформах типа YouTube.
    • Игнорирование аудиодорожки: Система анализирует и аудио, и видео. Использование уникального видеоряда с нелицензионной музыкой приведет к обнаружению совпадения по аудиоканалу.

    Стратегическое значение

    Патент подтверждает способность Google анализировать медиаконтент на глубоком уровне, основываясь на его содержании. Стратегическое значение для SEO заключается в понимании, что уникальность медиаконтента является измеримой величиной. Долгосрочная стратегия в Video SEO должна быть направлена на создание оригинальных материалов. Технологии, описанные в патенте, обеспечивают приоритет оригинального контента и борьбу с дублированием.

    Практические примеры

    Сценарий: Попытка обойти Content ID изменением скорости музыки

    1. Действие: Пользователь загружает видео, используя популярный музыкальный трек, ускоренный на 10%, чтобы избежать автоматического обнаружения.
    2. Обработка системой:
      • Этап 1: LSH ключи аудиодорожки совпадают с эталоном правообладателя (Premium Content). Трек попадает в кандидаты.
      • Этап 2: Dynamic Time Warping (DTW) компенсирует ускорение на 10% и выравнивает входное аудио с эталоном. Классификатор анализирует вектор признаков.
      • Этап 3: Совпадения объединяются по всей длине трека.
    3. Результат: Система идентифицирует совпадение с высоким Confidence Score. На видео поступает заявка Content ID от правообладателя.

    Вопросы и ответы

    Влияет ли этот патент на ранжирование сайтов в Google Поиске?

    Нет, напрямую не влияет. Патент описывает инфраструктуру для идентификации совпадений в видео и аудио (Content Identification), а не алгоритмы ранжирования веб-страниц. Однако эта технология косвенно влияет на результаты поиска по Видео, помогая Google отфильтровывать дубликаты и организовывать выдачу.

    Как система справляется с изменениями в видео, например, если его ускорить, замедлить или перекодировать?

    Система устойчива к таким изменениям. Для устойчивости к перекодированию используются робастные (устойчивые) фингерпринты. Для устойчивости к изменениям скорости (в патенте упоминается до 15%) используется алгоритм Dynamic Time Warping (DTW) на Этапе 2, который позволяет выровнять две последовательности с разной скоростью.

    Что такое Locality-Sensitive Hashing (LSH) и зачем он используется?

    LSH — это техника для быстрого приблизительного поиска похожих элементов в огромных базах данных. Она позволяет мгновенно найти список потенциально похожих видеосегментов (кандидатов), не прибегая к дорогостоящему сравнению входящего видео с каждым эталонным видео. Это ключ к масштабируемости системы.

    Что означает «Blacklisting» (черный список) ключей?

    Это оптимизация. Если определенный признак (LSH Key), например, соответствующий тишине или черному кадру, встречается слишком часто в базе данных, он становится бесполезным для идентификации. Такие ключи вносятся в черный список и игнорируются при поиске для экономии ресурсов.

    Какова роль машинного обучения (Classifier) в этой системе?

    Машинное обучение критически важно на Этапе 2. Classifier анализирует сложный вектор признаков совпадения (степень сходства, линейность выравнивания, контекст) и принимает финальное решение о том, является ли совпадение истинным или ложным. Это обеспечивает высокую точность системы.

    Может ли система обнаружить очень короткие совпадения?

    Да. Система анализирует короткие сегменты (sub-fingerprints длиной 0.5-5.0 секунд) и объединяет последовательные совпадения. Патент упоминает обнаружение совпадений длиной, например, 20 секунд, путем анализа 10-секундных блоков (chunks). Это позволяет надежно обнаруживать относительно короткие клипы.

    Что такое «Premium Content» в контексте патента?

    Это эталонный контент, требующий повышенной защиты (например, материалы крупных правообладателей). Система может применять более низкие пороги обнаружения или использовать дополнительные индексы (включая blacklisted ключи) для гарантии обнаружения совпадений с таким контентом.

    Поможет ли зеркальное отражение видео обойти эту систему?

    Патент предусматривает такую возможность. Упоминается, что если генерация отпечатков чувствительна к зеркалированию, система может генерировать два набора отпечатков: один для оригинала и один для зеркально отраженной версии. Таким образом, система потенциально готова к обнаружению таких модификаций.

    Как система отличает похожие, но разные видео (например, два интервью на одинаковом фоне)?

    Патент признает проблему типового контента («говорящие головы»). Для ее решения предлагается анализировать совпадения по нескольким каналам. Если видеоряд похож, но аудиодорожка разная, система может понизить уверенность в совпадении или отклонить его, чтобы избежать ложных срабатываний.

    Какие практические выводы для SEO-специалиста можно сделать из этого патента?

    Главный вывод — критическая важность создания оригинального медиаконтента. Технологии Google для обнаружения дубликатов мультимедиа очень продвинуты. Для успеха в Video SEO и на YouTube уникальность видеоряда и аудиодорожки является необходимым условием, а попытки поверхностной «уникализации» неэффективны.

    Навигация
    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх
    Telegram
    © 2025 SEO HARDCORE

    Type above and press Enter to search. Press Esc to cancel.