Close Menu
    Telegram
    SEO HARDCORE
    • Разборы патентов
      • Патенты Google
      • Патенты Яндекс
    • Скоро
      SEO инструменты
    • Скоро
      SEO аналитика
    SEO HARDCORE
    Разборы патентов • Патенты Google

    Как Google автоматически собирает полные видео из разрозненных пользовательских клипов

    STITCHING VIDEOS INTO AN AGGREGATE VIDEO (Сшивание видео в агрегированное видео)
    • US20140101551A1
    • Google LLC
    • 2014-04-10
    • 2012-10-05
    2012 SERP Индексация Мультимедиа Патенты Google

    Патент Google описывает систему для организации видеоконтента на хостинговых платформах. Система идентифицирует исходный источник загруженных пользователями клипов (например, фильм или ТВ-шоу), находит все связанные фрагменты, выстраивает их в правильном хронологическом порядке и «сшивает» в единое агрегированное видео. Это позволяет пользователям смотреть максимально полную версию контента, даже если он был загружен фрагментарно разными пользователями.

    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх

    Описание

    Какую задачу решает

    Патент решает проблему фрагментации и дезорганизации контента на платформах, хостящих пользовательское видео (например, YouTube). Пользователи часто загружают отдельные сцены, моменты или хайлайты из одного и того же источника (например, ТВ-шоу или спортивного события). Это затрудняет поиск контента для зрителей, приводит к повторному просмотру перекрывающегося контента и потере контекста. Система улучшает пользовательский опыт, автоматически организуя эти разрозненные клипы в единое целое.

    Что запатентовано

    Запатентована система для автоматической идентификации и агрегации видеоклипов, происходящих из общего источника. Система принимает загруженный пользователем клип, идентифицирует его оригинальный источник (Source Video), находит другие клипы из того же источника, упорядочивает их согласно заданному параметру (например, хронологии) и сшивает (Stitching) их в единое Aggregate Video для бесшовного просмотра.

    Как это работает

    Ключевой механизм включает несколько этапов:

    • Идентификация источника: Загруженный клип сравнивается с базой данных источников (Source Data Store) с использованием методов сопоставления контента (например, по видеоряду или транскрипту).
    • Тегирование: После идентификации источника клип тегируется подробными классификационными данными (Classification Data), включая временные метки оригинала, эпизод, актеров, сцены и т.д.
    • Поиск связанных клипов: Система идентифицирует набор связанных клипов (Set of Video Clips) на основе общего источника или других параметров.
    • Упорядочивание и Оптимизация: Клипы упорядочиваются (например, хронологически). Система выявляет перекрывающийся контент и выбирает лучший клип для этого сегмента. Также идентифицируются отсутствующие фрагменты оригинала.
    • Сшивание (Stitching): Упорядоченные клипы объединяются в Aggregate Video. Это может быть новый видеофайл или динамический плейлист для бесшовного воспроизведения.

    Актуальность для SEO

    Высокая. Глубокое понимание структуры видео, идентификация ключевых моментов (Key Moments) и организация пользовательского контента являются критически важными для Google, особенно для YouTube. Описанные механизмы тегирования контента по сценам, актерам и временным меткам отражают современные тенденции в анализе видео. Возможность автоматической сборки контента из фрагментов остается актуальной задачей для улучшения пользовательского опыта и увеличения времени просмотра.

    Важность для SEO

    Патент имеет высокое значение для Video SEO и стратегии контента на YouTube. Он описывает инфраструктуру, позволяющую Google глубоко понимать и реструктурировать видеоконтент независимо от того, как он был загружен. Это влияет на то, как контент индексируется, организуется (например, через Source Pages) и представляется пользователю. Понимание этих механизмов критично для оптимизации видимости видео, управления правами и разработки стратегий публикации фрагментированного контента (например, хайлайтов).

    Детальный разбор

    Термины и определения

    Aggregate Video (Агрегированное видео)
    Итоговое видео, созданное путем сшивания (Stitching) набора связанных видеоклипов. Может быть представлено как единый файл или как бесшовный плейлист.
    Classification Data (Классификационные данные)
    Метаданные, используемые для тегирования видеоклипа после идентификации его источника. Примеры включают: название, эпизод, сезон, сцена, персонажи/актеры в сцене, диалоги, дата публикации источника, временные метки (Timestamp) в источнике, издатель, транскрипт.
    Content Component (Компонент контента)
    Системный модуль, отвечающий за сопоставление загруженного видеоклипа с его источником (Source) и генерацию Classification Data.
    Identification Component (Компонент идентификации)
    Модуль, который идентифицирует набор видеоклипов с похожим контентом (например, из одного источника или с одним актером).
    Ordering Component (Компонент упорядочивания)
    Модуль, который организует набор клипов в соответствии с Ordering Parameter. Он также отвечает за обработку перекрывающегося и отсутствующего контента.
    Ordering Parameter (Параметр упорядочивания)
    Критерий для сортировки клипов в агрегированном видео. Примеры: временная метка источника (runtime), хронологический порядок (дата эфира), популярность (количество просмотров).
    Overlapping Content (Перекрывающийся контент)
    Ситуация, когда два или более клипа содержат один и тот же фрагмент исходного видео.
    Source / Source Video (Источник / Исходное видео)
    Оригинальное полное видео (например, фильм, эпизод шоу, трансляция события), из которого взят загруженный пользователем клип.
    Source Page (Страница источника)
    Специально созданная страница, содержащая информацию о конкретном Source Video. Может включать превью сцен, ссылки для покупки, список всех клипов из этого источника и ссылку на Aggregate Video.
    Stitching (Сшивание)
    Процесс объединения нескольких видеоклипов в Aggregate Video. Включает добавление частей одного клипа к другому, часто бесшовным образом.

    Ключевые утверждения (Анализ Claims)

    Claim 1 (Независимый пункт): Описывает базовый метод работы системы на сервере, хостящем пользовательский контент.

    1. Content component получает загруженный видеоклип.
    2. Этот компонент идентифицирует источник (Source) клипа путем сравнения клипа с источником, что приводит к совпадению.
    3. Identification component идентифицирует набор видеоклипов, контент которых связан с источником.
    4. Ordering component упорядочивает этот набор в соответствии с параметром (Ordering Parameter).
    5. Stitching component сшивает по крайней мере часть этого набора в агрегированное видео (Aggregate Video), упорядоченное согласно параметру.

    Claim 2 (Зависимый от 1): Уточняет, что Content component создает страницу источника (Source Page) с информацией об источнике.

    Claim 3 (Зависимый от 1): Детализирует процесс тегирования. Content component тегирует клип классификационными данными (Classification Data), которые включают временные метки источника, актеров, сцены, издателя, транскрипт и т.д.

    Claim 4 (Зависимый от 1): Описывает альтернативный метод сопоставления. Content component сопоставляет клип с источником на основе сравнения транскрипта (текстовой расшифровки) клипа с транскриптом источника.

    Claim 7 (Зависимый от 1): Описывает механизм обработки дубликатов. Если несколько клипов содержат перекрывающийся контент, Ordering component выбирает конкретный видеоклип из этого множества для включения в Aggregate Video в этом сегменте.

    Claim 8 (Зависимый от 1): Описывает обработку пробелов. Ordering component идентифицирует части источника, которые отсутствуют в Aggregate Video, и предоставляет индикацию того, что эти части недоступны для просмотра.

    Claim 11 (Зависимый от 10): Описывает интерфейс плеера. Player component предоставляет цветовые индикаторы на полосе прогресса Aggregate Video. Эти индикаторы обозначают различные источники или различные видеоклипы из набора.

    Где и как применяется

    Изобретение в первую очередь применяется на платформах для хостинга видеоконтента (например, YouTube) и затрагивает этапы глубокого индексирования и финальной презентации контента пользователю.

    INDEXING – Индексирование и извлечение признаков
    Основная часть работы происходит на этом этапе (или аналогичном этапе обработки загруженного контента на платформе):

    • Анализ контента: Content Component анализирует загруженный видеоклип.
    • Идентификация источника: Происходит сопоставление клипа с Source Video. Это требует наличия базы данных эталонных источников (Source Data Store).
    • Извлечение признаков (Feature Extraction): Из источника извлекаются и присваиваются клипу подробные Classification Data (временные метки, сцены, актеры, транскрипт). Это глубокое семантическое и структурное индексирование видео.
    • Создание сущностей: Система может создавать Source Page – хаб для конкретного источника контента.

    QUNDERSTANDING – Понимание Запросов
    Identification Component может использовать понимание запросов для определения набора клипов. Например, в ответ на запрос пользователя (например, «Майкл Джордан, ESPN, 1991») система идентифицирует релевантные клипы для последующего сшивания.

    METASEARCH – Метапоиск и Смешивание / RERANKING – Переранжирование
    На этапе формирования ответа пользователю (будь то страница результатов поиска или страница просмотра видео) система применяет логику агрегации:

    • Агрегация: Identification Component собирает набор связанных клипов.
    • Смешивание и Сортировка: Ordering Component и Stitching Component определяют финальную последовательность и создают Aggregate Video. Это процесс реструктуризации контента перед показом.
    • Презентация: Player Component отображает результат, используя специальный интерфейс для навигации по агрегированному контенту.

    Входные данные:

    • Загруженный пользователем видеоклип.
    • База данных источников (Source Data Store).
    • Пользовательский запрос или контекст просмотра (для определения набора клипов).
    • Ordering Parameter (выбранный пользователем или по умолчанию).

    Выходные данные:

    • Classification Data, привязанные к клипу в индексе.
    • Source Page (как новая сущность).
    • Aggregate Video (как новый формат презентации контента).

    На что влияет

    • Типы контента: Наиболее сильно влияет на контент, который часто загружается фрагментарно: ТВ-шоу, фильмы, спортивные события, концерты, новостные сюжеты.
    • Специфические запросы: Влияет на запросы, связанные с конкретными сущностями (актеры, персонажи, события), позволяя системе создавать компиляции (например, все сцены с конкретным актером из разных фильмов).
    • Форматы контента: Превращает короткие клипы (UGC) в длинноформатный контент (Aggregate Video).

    Когда применяется

    • Триггеры активации: 1) При загрузке нового видеоклипа (для индексации и тегирования). 2) Когда пользователь запрашивает контент, который доступен в виде набора связанных клипов (для сшивания Aggregate Video). 3) При посещении Source Page.
    • Условия работы: Требуется возможность надежно идентифицировать источник (Source Video) загруженного клипа. Если источник не найден, система не сможет применить логику агрегации.

    Пошаговый алгоритм

    Этап 1: Обработка загруженного клипа (Индексирование)

    1. Получение контента: Сервер получает медиаконтент, включающий видеоклип.
    2. Генерация данных для сопоставления: Система может сгенерировать транскрипт клипа (используя распознавание речи или субтитры).
    3. Сопоставление с источником: Видеоклип (или его транскрипт) сравнивается с базой данных источников для идентификации Source Video.
    4. Создание страницы источника (Опционально): Если Source Video идентифицирован, создается или обновляется Source Page.
    5. Извлечение и тегирование: Из Source Video извлекаются Classification Data (временные метки, сцены, актеры и т.д.), и эти данные привязываются к загруженному клипу в индексе.

    Этап 2: Генерация агрегированного видео (Обработка запроса/Презентация)

    1. Идентификация набора клипов: Система определяет коллекцию связанных видеоклипов. Это может быть основано на пользовательском запросе, выборе Source Page или автоматическом определении контекста.
    2. Определение параметра упорядочивания: Выбирается Ordering Parameter (например, хронология).
    3. Организация коллекции: Коллекция клипов сортируется в соответствии с параметром.
    4. Идентификация пробелов: Система определяет части Source Video, которые отсутствуют в коллекции клипов.
    5. Обработка перекрытий: Система идентифицирует Overlapping Content. Для каждого перекрытия выбирается один конкретный клип (например, на основе качества видео/аудио или лицензионных обязательств).
    6. Сшивание (Stitching): Отобранные части клипов сшиваются в Aggregate Video в установленном порядке.
    7. Презентация: Aggregate Video предоставляется пользователю через Player Component. В интерфейсе могут отображаться индикаторы отсутствующих частей и информация об источниках используемых клипов (например, через цветовую кодировку прогресс-бара).

    Какие данные и как использует

    Данные на входе

    Патент фокусируется на анализе самого видеоконтента и данных, полученных из эталонных источников.

    • Контентные факторы (Видео/Аудио): Непосредственно аудио- и видеопоток загруженного клипа используется для сопоставления с источником.
    • Текстовые данные (Транскрипт): Транскрипт (расшифровка речи), полученный из субтитров или с помощью распознавания речи. Он используется как эффективный способ сопоставления клипа с источником.
    • Данные источника (Source Data): Эталонные данные из Source Data Store. Критически важные для работы системы. Включают полные версии видео, их транскрипты и подробные метаданные.

    Какие метрики используются и как они считаются

    Патент не приводит конкретных формул, но описывает следующие ключевые данные и методы их использования:

    • Classification Data: Набор дискретных меток, извлекаемых из источника и присваиваемых клипу. Ключевыми являются:
      • Timestamp(s): Временные метки, указывающие, где именно в Source Video находится контент клипа. Это основа для хронологического упорядочивания и идентификации перекрытий/пробелов.
      • Сущности (Actors, Characters, Publisher): Используются для идентификации связанных клипов по нехронологическим параметрам (например, компиляция сцен с актером).
    • Методы анализа текста (NLP): Сравнение транскриптов (текстовых расшифровок) используется как метод сопоставления контента. Это позволяет быстрее и эффективнее находить совпадения по сравнению с анализом видеоряда.
    • Критерии выбора при перекрытии: При наличии Overlapping Content система выбирает один клип. В патенте упоминаются критерии выбора, такие как качество аудио или видео, а также лицензионные обязательства.
    • Ordering Parameter: Метрика, используемая для сортировки (например, Timestamp для хронологии или количество просмотров для популярности).

    Выводы

    1. Глубокое индексирование видеоконтента: Патент демонстрирует методы для детального понимания структуры видео. Google не просто индексирует метаданные, предоставленные пользователем, но активно идентифицирует источник и извлекает богатый набор Classification Data, включая точные временные метки, сцены и сущности (актеры, издатели).
    2. Транскрипт как ключевой сигнал идентификации: Использование сравнения транскриптов для сопоставления видео подчеркивает важность наличия и качества текстовой расшифровки (субтитров или распознанной речи) для точной индексации видео.
    3. Автоматическая реструктуризация контента: Система способна динамически пересобирать контент из фрагментов, загруженных разными пользователями, в единое целое (Aggregate Video). Это меняет парадигму потребления с отдельных клипов на структурированный просмотр.
    4. Создание хабов контента (Source Pages): Изобретение включает создание Source Pages, которые служат авторитетными хабами для всего контента, связанного с конкретным источником (фильмом, шоу). Это важный механизм для организации выдачи на видеоплатформах.
    5. Приоритезация качества и прав: При наличии дублирующего контента система выбирает лучший вариант на основе качества или лицензионных соглашений, что указывает на интеграцию сигналов качества и управления правами в процесс агрегации.
    6. Улучшение навигации внутри видео: Интерфейс плеера (Player Component) предлагает улучшенную навигацию, визуально разделяя агрегированное видео на сегменты по источникам клипов или указывая на пропущенные фрагменты.

    Практика

    Best practices (это мы делаем)

    • Обеспечение высокого качества аудио и видео: Поскольку система выбирает лучший клип при наличии перекрытий (Overlapping Content), загрузка контента в максимально возможном качестве повышает вероятность того, что именно ваш клип будет использован в Aggregate Video.
    • Оптимизация транскриптов и субтитров: Так как транскрипт используется для идентификации контента, необходимо обеспечить его наличие и точность. Загрузка качественных субтитров помогает системе корректно сопоставить ваш клип с источником и извлечь Classification Data.
    • Публикация уникальных фрагментов: Чтобы гарантировать включение в Aggregate Video, полезно публиковать фрагменты, которые редко загружаются другими пользователями. Это заполняет пробелы (Portions Not Included) в агрегированной версии.
    • Стратегия публикации хайлайтов для официальных правообладателей: Издатели (например, спортивные лиги, ТВ-каналы) могут использовать этот механизм для организации своих официальных хайлайтов. Загрузка множества клипов с одного события позволяет системе автоматически собрать для пользователя почти полную версию или тематические подборки.
    • Мониторинг Source Pages (если применимо): Если платформа реализует Source Pages (или их аналог, например, официальные страницы фильмов/шоу на YouTube), необходимо следить за тем, чтобы ваш контент корректно ассоциировался с этими страницами для улучшения видимости.

    Worst practices (это делать не надо)

    • Загрузка низкокачественных дубликатов: Загрузка клипов низкого качества, которые уже присутствуют на платформе в лучшем качестве, неэффективна. Система отдаст предпочтение более качественным версиям при сборке Aggregate Video.
    • Искажение аудиодорожки или видеоряда для обхода идентификации: Попытки помешать системе идентифицировать источник (например, ускорение, зеркалирование) могут привести к тому, что контент не будет включен в Aggregate Video и не получит преимуществ от ассоциации с Source Page.
    • Игнорирование субтитров и качества звука: Отсутствие четкой речи или субтитров затрудняет генерацию транскрипта, что снижает эффективность идентификации контента через текстовое сопоставление.

    Стратегическое значение

    Этот патент подчеркивает стратегическую важность глубокого структурного и семантического анализа видеоконтента для Google. Для SEO-специалистов это сигнал о том, что оптимизация видео выходит далеко за рамки заголовков и описаний. Системы Google стремятся понять, что именно происходит в видео, кто в нем участвует, и каков контекст каждой сцены. Стратегия Video SEO должна учитывать, что контент может быть автоматически фрагментирован, проанализирован на уровне сцен и временных меток, и рекомбинирован для пользователя.

    Практические примеры

    Сценарий: Организация хайлайтов спортивного матча

    1. Действие: Спортивный канал (Правообладатель А) загружает 10 клипов с лучшими моментами матча. Другой канал (Правообладатель Б) загружает свою аналитическую передачу, включающую другие фрагменты этого же матча.
    2. Работа системы: Система идентифицирует все клипы как относящиеся к одному источнику (Source Video – полная запись матча). Она извлекает временные метки оригинала для каждого клипа.
    3. Генерация Aggregate Video: Когда пользователь хочет посмотреть обзор матча (например, перейдя на Source Page матча), система собирает все доступные клипы от обоих правообладателей.
    4. Оптимизация: Клипы выстраиваются в хронологическом порядке. Если момент гола есть у обоих каналов, система выбирает версию с лучшим качеством.
    5. Результат: Пользователь смотрит бесшовное Aggregate Video, которое содержит максимум доступного контента в правильном порядке. Прогресс-бар может быть раскрашен разными цветами, показывая, какие сегменты взяты у Правообладателя А, какие у Правообладателя Б, а какие фрагменты матча отсутствуют.

    Вопросы и ответы

    Что такое «Aggregate Video» и как оно создается?

    Aggregate Video — это итоговое видео, которое система автоматически собирает («сшивает») из множества разрозненных клипов, загруженных пользователями. Система находит клипы, относящиеся к одному источнику (например, фильму), упорядочивает их хронологически, удаляет дубликаты и объединяет в единый поток для бесшовного просмотра.

    Как система понимает, что два разных клипа относятся к одному и тому же фильму или шоу?

    Система использует компонент сопоставления контента (Content Component). Он сравнивает загруженный клип с базой данных эталонных источников (Source Data Store). Сопоставление может происходить путем анализа видеоряда или, что более эффективно, путем сравнения текстовых транскриптов (расшифровок речи) клипа и источника.

    Что произойдет, если я загружу клип, который уже есть на платформе?

    Система идентифицирует это как перекрывающийся контент (Overlapping Content). При создании Aggregate Video система выберет только одну версию этого фрагмента. Выбор будет основан на критериях качества аудио/видео или лицензионных соглашениях. Если ваш клип имеет более низкое качество, он, вероятно, не будет использован.

    Как этот патент влияет на оптимизацию метаданных видео (заголовков, описаний)?

    Патент показывает, что система в значительной степени полагается на анализ самого контента (видео, аудио, транскрипт) для его классификации, а не только на метаданные, предоставленные пользователем. После идентификации источника система сама тегирует видео богатыми данными (Classification Data). Это снижает зависимость от пользовательских метаданных, но не отменяет их важности для первичного ранжирования и поиска.

    Насколько важны субтитры и транскрипты в контексте этого патента?

    Они критически важны. Патент явно выделяет сравнение транскриптов как эффективный метод для идентификации источника видео. Наличие точных субтитров или четкой аудиодорожки, позволяющей сгенерировать качественный транскрипт, напрямую помогает системе правильно классифицировать и использовать ваш контент.

    Что такое «Source Page»?

    Source Page — это автоматически создаваемая страница, посвященная конкретному исходному видео (например, определенному эпизоду шоу или фильму). Она служит хабом, где собрана вся информация: превью сцен, ссылки для покупки полной версии, список всех связанных клипов, загруженных пользователями, и ссылка на просмотр Aggregate Video.

    Может ли система собрать видео не в хронологическом порядке?

    Да. Система использует параметр упорядочивания (Ordering Parameter). Это может быть хронология (по временным меткам оригинала), дата эфира, популярность клипов или тематическая подборка (например, все сцены с определенным актером).

    Как система сообщает пользователю, что часть контента отсутствует?

    Если в коллекции клипов нет фрагментов для покрытия всего Source Video, система идентифицирует эти пробелы. В интерфейсе плеера (Player Component) предусмотрена индикация недоступных частей, например, на полосе прогресса.

    Какую выгоду этот механизм дает официальным издателям контента?

    Он позволяет лучше организовать контент и улучшить пользовательский опыт. Издатели могут загружать множество коротких хайлайтов, а система автоматически организует их в логической последовательности для зрителей. Также это помогает направлять пользователей на Source Pages, где могут быть предложены опции покупки полной версии.

    Влияет ли этот патент на Google Поиск или только на YouTube?

    Патент описывает механизмы для «сервера, хостящего пользовательский контент», что в первую очередь указывает на YouTube. Однако глубокое индексирование видео и извлечение Classification Data (сцены, актеры, временные метки) обогащает общий индекс Google, что может влиять на видимость видео в Google Поиске, например, через механизм Key Moments (Ключевые моменты).

    Навигация
    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх
    Telegram
    © 2025 SEO HARDCORE

    Type above and press Enter to search. Press Esc to cancel.