Close Menu
    Telegram
    SEO HARDCORE
    • Разборы патентов
      • Патенты Google
      • Патенты Яндекс
    • Скоро
      SEO инструменты
    • Скоро
      SEO аналитика
    SEO HARDCORE
    Разборы патентов • Патенты Google

    Как Google автоматически создает оптимизированные видеоролики событий, комбинируя лучшие сегменты из нескольких пользовательских загрузок

    SOCIAL BASED AGGREGATION OF RELATED MEDIA CONTENT (Агрегация связанного медиаконтента на основе социальных связей)
    • US8612517B1
    • Google LLC
    • 2013-12-17
    • 2012-01-30
    2012 Мультимедиа Патенты Google

    Система Google для автоматической агрегации пользовательского контента. Она идентифицирует видео одного события, синхронизирует их, ранжирует сегменты на основе качества, содержания и социальных связей авторов, и автоматически монтирует новый композитный видеоролик, выбирая лучшие фрагменты.

    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх

    Описание

    Какую задачу решает

    Патент решает проблему фрагментации и вариативности качества пользовательского контента (UGC), когда одно и то же событие (например, концерт, спортивное мероприятие) снимается множеством пользователей с разных ракурсов и с разным качеством. Цель — автоматически обработать этот массив разрозненных медиафайлов и создать единый, агрегированный медиапродукт, оптимизированный по качеству и содержанию.

    Что запатентовано

    Запатентована система (Media System) для автоматической агрегации медиаконтента. Она идентифицирует видеоролики, относящиеся к одному событию, синхронизирует их по времени, анализирует и ранжирует отдельные сегменты. Ранжирование учитывает техническое качество, содержание (например, присутствие определенных лиц) и социальные связи между авторами. Система автоматически сшивает (stitches) лучшие сегменты в новый композитный медиафайл.

    Как это работает

    Система работает в несколько этапов:

    • Идентификация: Определяются медиафайлы, относящиеся к одному событию, на основе метаданных (время, геолокация) или анализа контента.
    • Синхронизация: Файлы выравниваются на общей временной шкале с использованием распознавания аудио, образов или движения.
    • Анализ и Ранжирование: Видео делятся на сегменты. Каждый сегмент оценивается по метрикам качества (видео/аудио) и содержания. Ранжирование может учитывать социальные связи авторов. Для оптимизации выбора используются алгоритмы, такие как Скрытые Марковские Модели (HMM).
    • Агрегация и Сглаживание: Выбранные сегменты сшиваются. Система удаляет слишком короткие сегменты (ниже пороговой длины), продлевая соседние, чтобы обеспечить плавность воспроизведения.

    Актуальность для SEO

    Высокая. Автоматическая агрегация и улучшение пользовательского контента являются ключевыми функциями на платформах вроде Google Photos и YouTube. Использование машинного обучения для анализа качества видео и аудио, а также интеграция социальных сигналов остаются актуальными направлениями развития UGC-платформ.

    Важность для SEO

    Влияние на традиционное веб-SEO минимальное. Патент не описывает алгоритмы ранжирования веб-поиска. Однако он имеет значение для Video SEO и оптимизации на UGC-платформах. Он демонстрирует возможности Google по глубокому анализу технического качества видео и аудио, использованию геолокационных данных для кластеризации контента и применению социального графа для определения значимости контента на этих платформах.

    Детальный разбор

    Термины и определения

    Aggregated Media Item (Агрегированный медиафайл)
    Новый композитный медиафайл, созданный путем сшивания (stitching) сегментов из нескольких исходных медиафайлов.
    Analyzer Component (Компонент анализа)
    Анализирует синхронизированные медиафайлы на основе метрик (качество, композиция, присутствие объектов). Ранжирует порции медиафайлов и группирует их в сегменты.
    Common Event (Общее событие)
    Событие (концерт, свадьба и т.д.), записанное несколькими разными источниками (пользователями).
    HMM (Hidden Markov Model / Скрытая Марковская Модель)
    Динамическая байесовская сеть, используемая для автоматического ранжирования порций видео и их группировки в сегменты. Помогает определить оптимальные моменты для переключения между источниками.
    Identification Component (Компонент идентификации)
    Модуль, который ассоциирует медиафайлы, относящиеся к общему событию, используя метаданные (геолокацию, время) или анализ контента.
    Segment (Сегмент)
    Группа интервалов или кадров из одного исходного медиафайла. Границы сегментов определяются системой динамически.
    Synchronization Component (Компонент синхронизации)
    Автоматически синхронизирует набор связанных медиафайлов по времени, определяя общую временную шкалу.
    Threshold Segment Length (Пороговая длина сегмента)
    Минимальная длина сегмента. Используется для сглаживания агрегированного видео; сегменты короче этого порога удаляются.
    VQA (Video Quality Assessment / Оценка качества видео)
    Алгоритмы и техники (например, PSNR, SSIM), используемые для объективной оценки качества видео.

    Ключевые утверждения (Анализ Claims)

    Claim 1 (Независимый пункт): Описывает основную систему агрегации медиаконтента.

    1. Система идентифицирует набор медиафайлов от разных источников, связанных с общим событием, основываясь, в частности, на географическом местоположении (geographic locations).
    2. Набор автоматически синхронизируется.
    3. Анализатор оценивает метрики порций медиафайлов, ранжирует их и группирует в сегменты. Длины сегментов определяются независимо от границ исходных файлов.
    4. Механизм сглаживания: Агрегатор удаляет первый сегмент, если его длина ниже пороговой (threshold segment length).
    5. Длина соседнего (второго) сегмента расширяется на длину удаленного первого сегмента.
    6. Генерируется новый композитный медиафайл.

    Ядро изобретения — автоматизированный процесс создания сводного видео с динамической сегментацией и активным управлением длиной сегментов для обеспечения плавности.

    Claim 9 (Независимый пункт): Описывает метод агрегации с акцентом на социальные сигналы.

    1. Получение и идентификация медиафайлов события (с использованием геолокации).
    2. Автоматическая синхронизация и анализ.
    3. Группировка кадров в сегменты.
    4. Ранжирование на основе социальных связей: Сегменты ранжируются как функция социальных связей (social connections) между создателями контента, идентифицированных через коммуникационный фреймворк.
    5. Выбор подмножества сегментов и применение механизма сглаживания (удаление коротких сегментов и расширение соседних).
    6. Агрегация и публикация нового медиафайла.

    Этот пункт защищает использование социального графа как фактора ранжирования при выборе контента.

    Claim 8 (Зависимый от 1): Детализирует механизм анализа и сегментации.

    Компонент анализа делит синхронизированные медиафайлы и определяет их длину на основе байесовской сети Скрытой Марковской Модели (HMM Bayesian network).

    Где и как применяется

    Этот патент описывает технологии обработки пользовательского контента (UGC), которые применяются на платформах вроде YouTube или Google Photos, а не в основном веб-поиске Google.

    CRAWLING / INDEXING (Сбор данных и извлечение признаков)
    Система принимает загруженные медиафайлы. Происходит извлечение признаков (Feature Extraction): извлечение метаданных (GPS, временные метки), генерация аудио-отпечатков, распознавание визуальных паттернов и лиц. Также происходит оценка качества видео (VQA) и аудио.

    Content Processing (Обработка контента / Пост-индексирование)
    Основная работа, описанная в патенте, происходит на этом этапе.

    • Ассоциация событий: Identification Component использует извлеченные признаки для кластеризации медиафайлов по событиям.
    • Синхронизация: Synchronization Component анализирует аудио и видео для создания общей временной шкалы.
    • Внутреннее Ранжирование: Analyzer Component использует метрики качества, содержания и социальные сигналы для ранжирования сегментов.
    • Агрегация: Aggregation Component выполняет финальную сборку, используя HMM и правила сглаживания.

    Входные данные:

    • Медиафайлы (видео/аудио).
    • Метаданные (время, локация, теги).
    • Данные об авторах и их социальных связях.
    • Пользовательские предпочтения для кастомизации.

    Выходные данные:

    • Новый композитный медиафайл (Aggregated Media Item).

    На что влияет

    • Конкретные типы контента: Пользовательский видеоконтент (UGC), снятый на мероприятиях (концерты, спортивные события, свадьбы).
    • Платформы: Функциональность платформ для хостинга видео и фото (YouTube, Google Photos).

    Когда применяется

    • Условие активации: Когда система идентифицирует достаточное количество медиафайлов от разных пользователей, относящихся к одному и тому же событию (по времени и месту).
    • Частота применения: Может применяться автоматически после загрузки контента или по запросу пользователя на создание автоматического фильма.

    Пошаговый алгоритм

    1. Сбор и Идентификация: Получение медиафайлов от разных пользователей. Identification Component анализирует геолокацию, время и контент для группировки файлов по общему событию.
    2. Синхронизация: Synchronization Component анализирует аудио- и видеодорожки (audio recognition, motion/pattern recognition) для выстраивания файлов на единой временной шкале.
    3. Анализ и Ранжирование: Analyzer Component оценивает порции видео по метрикам качества (VQA, аудио) и содержания (распознавание лиц/объектов). Ранжирование корректируется с учетом пользовательских предпочтений и социальных связей авторов.
    4. Сегментация (HMM): Система использует HMM для динамического выбора наилучшего источника и группировки интервалов в сегменты. Границы сегментов определяются оптимально, независимо от исходных файлов. HMM может предпочитать переходы в тихие моменты (низкий уровень аудио) или при низкой динамике в кадре (motion magnitude).
    5. Сглаживание (Smoothing): Система проверяет длину сегментов. Если сегмент короче порогового значения (Threshold Segment Length), он удаляется.
    6. Расширение: Соседний сегмент (предыдущий или последующий) продлевается, чтобы заполнить пробел.
    7. Агрегация (Stitching): Aggregation Component сшивает выбранные и сглаженные сегменты в новый композитный медиафайл. Могут применяться плавные переходы (fade-in/out).
    8. Публикация: Итоговый файл сохраняется и предоставляется пользователям.

    Какие данные и как использует

    Данные на входе

    • Контентные факторы (Медиа): Видеокадры (анализ образов, движения, композиции, цвета) и аудиодорожки (анализ характеристик звука).
    • Временные факторы: Временные метки (time stamps) в метаданных.
    • Географические факторы: Данные о местоположении съемки (GPS, данные точек доступа сети). Критичны для идентификации события (Claims 1, 9, 14).
    • Пользовательские и Социальные факторы: Идентификаторы авторов. Данные о социальных связях (social connections, social relationships) между пользователями (контакты email/телефона, связи в социальных сетях). Используются для ранжирования (Claims 9, 14).
    • Пользовательский ввод: Предпочтения, указанные через Editing Component для кастомизации (например, фокус на конкретном лице). Теги.

    Какие метрики используются и как они считаются

    Патент детально описывает используемые метрики:

    • Метрики качества видео (VQA): Упоминаются объективные метрики: PSNR (Peak signal-to-noise ratio), SSIM (Structural SIMilarity), MS-SSIM, VSNR (Visual Signal to Noise Ratio). Также оцениваются разрешение, освещенность, плавность, цвет.
    • Метрики качества аудио: Упоминаются перцептивные методы (PEAQ — Perceptual Evaluation of Audio Quality, PESQ) и неперцептивные методы (THD — Total Harmonic Distortion, SNR — Signal to Noise Ratio, NR — Noise Ratio, спектральные искажения).
    • Метрики содержания и релевантности:
      • Частота появления (frequency rate) и размер объекта/лица в кадре (используется Pattern/Face Recognition).
      • Композиция кадра.
    • Социальные метрики: Оценка степени социальной связи между авторами или между автором и зрителем.
    • Алгоритмы машинного обучения: Использование Hidden Markov Model (HMM) и алгоритма Витерби для динамического ранжирования и сегментации. Локальные термы HMM зависят от качества и содержания. Парные термы (определяющие переходы) зависят от уровня аудио и величины движения (motion magnitude) для выбора оптимальных точек перехода.

    Выводы

    1. Автоматизация создания контента: Патент описывает сложную систему для автоматического создания высококачественного композитного видео из множества пользовательских загрузок разного качества. Это технология обработки контента внутри платформы, а не алгоритм веб-поиска.
    2. Глубокий анализ качества медиа: Система использует широкий спектр объективных метрик для оценки как видео (VQA), так и аудио. Техническое качество исходного материала является ключевым фактором для включения в агрегацию.
    3. Социальные сигналы как фактор ранжирования: Патент явно защищает использование социальных связей (social connections) как сигнала для ранжирования сегментов. Это подчеркивает важность социального контекста на UGC-платформах.
    4. Сложные алгоритмы сегментации и сглаживания: Использование HMM для контекстного выбора точек перехода и механизм удаления коротких сегментов (Threshold Segment Length) показывают стремление к созданию кинематографически гладкого итогового продукта.
    5. Важность метаданных для ассоциации: Точные метаданные, особенно геолокация и временные метки, критически важны для начального этапа идентификации и группировки контента по событиям.

    Практика

    Best practices (это мы делаем)

    Рекомендации актуальны для специалистов, занимающихся Video SEO и продвижением контента на UGC-платформах (YouTube, Google Photos).

    • Максимизация технического качества контента: Всегда загружайте контент в максимально возможном качестве. Патент подчеркивает использование объективных метрик VQA и аудио (SNR). Высокое разрешение, хороший свет, стабильная картинка и чистый звук повышают шансы на то, что ваш контент будет высоко ранжирован системой анализа качества.
    • Обеспечение точности метаданных и геолокации: Для контента с мероприятий критически важно наличие точных метаданных. Убедитесь, что активирована геолокация и установлены корректные дата и время. Это поможет системе правильно ассоциировать ваш контент с событием.
    • Оптимизация тегов и описаний: Используйте релевантные теги, указывающие на событие, место и участников. Это дополнительный сигнал для ассоциации контента.
    • Стимулирование социального взаимодействия: Поскольку социальные связи авторов используются как сигнал ранжирования (Claims 9, 14), построение активного сообщества и взаимодействие с другими авторами на платформе может положительно влиять на видимость вашего контента.
    • Фокус на ключевых сущностях: Снимайте ключевых участников событий крупным планом. Система использует распознавание лиц и объектов для ранжирования сегментов, поэтому четкое изображение важных сущностей повышает ценность контента.

    Worst practices (это делать не надо)

    • Загрузка низкокачественного контента: Видео с низким разрешением, плохим звуком или сильным дрожанием будет автоматически отфильтровано системой анализа качества и не попадет в потенциальные агрегации.
    • Отключение или подмена метаданных: Удаление геолокации или временных меток затруднит для системы идентификацию события, что снижает ценность контента для агрегации. Манипуляция метаданными неэффективна, так как система также использует аудиовизуальный анализ для синхронизации.
    • Игнорирование социального аспекта платформы: Работа в изоляции без взаимодействия с другими пользователями может привести к понижению приоритета контента из-за низкого веса социальных сигналов.

    Стратегическое значение

    Патент подтверждает стратегическую важность автоматизированной обработки и улучшения пользовательского контента для Google. Он демонстрирует, как Google интегрирует данные из разных источников — контент, метаданные, социальный граф — для создания нового продукта. Для SEO-специалистов это подтверждает, что на UGC-платформах техническое качество контента и социальная активность автора являются измеримыми сигналами, влияющими на представление контента.

    Практические примеры

    Сценарий: Оптимизация видео с конференции для VSEO

    Бренд проводит конференцию и хочет максимизировать качество своих видеоматериалов на YouTube.

    1. Подготовка (Качество): Обеспечить профессиональную съемку в 4K и запись чистого звука напрямую с пульта. Это гарантирует высокие показатели по метрикам VQA и SNR.
    2. Съемка (Контент): Оператор фокусируется на спикере, обеспечивая четкое изображение лица (для Face Recognition) и хорошую композицию кадра.
    3. Загрузка (Метаданные): При загрузке на YouTube указать точное местоположение (геотеги), время и добавить детальные теги мероприятия и спикеров.
    4. Ожидаемый результат: Системы анализа качества Google (подобные описанной в патенте) оценят видео как высококачественное с технической и контентной точки зрения. Это формирует сильные базовые сигналы качества и релевантности для данного видео на платформе.

    Вопросы и ответы

    Влияет ли этот патент на ранжирование сайтов в веб-поиске Google?

    Нет, прямого влияния на ранжирование веб-сайтов этот патент не оказывает. Он сосредоточен на обработке, анализе качества и автоматическом монтаже пользовательского медиаконтента (видео и аудио). Технологии из этого патента применяются на UGC-платформах, таких как YouTube или Google Photos, а не в основном поиске.

    Как система определяет, что несколько видео относятся к одному и тому же событию?

    Система использует комбинацию сигналов для идентификации общего события. В патенте явно упоминаются метаданные, такие как географическое положение (GPS, точки доступа) и время записи. Также используются пользовательские теги и анализ самого контента (аудио и видео) для выявления общих характеристик.

    Насколько важны социальные сигналы в этом патенте?

    Социальные сигналы играют важную роль. В ключевых пунктах изобретения (Claims 9 и 14) прямо указано, что ранжирование сегментов медиафайлов осуществляется как функция социальных связей между создателями контента или пользователями социальной сети. Контент от связанных пользователей может получать приоритет.

    Какие технические параметры видео наиболее важны для этой системы?

    Патент упоминает использование алгоритмов оценки качества видео (VQA), таких как PSNR, SSIM, VSNR. На практике это означает, что система оценивает разрешение, резкость, контрастность, уровень шума, стабильность (отсутствие дрожания) и плавность видеоряда. Качество аудио (SNR, PEAQ) также оценивается.

    Как система обеспечивает плавность итогового видео, если оно собрано из разных источников?

    Используются два основных механизма. Во-первых, применяется пороговая длина сегмента (Threshold Segment Length): слишком короткие сегменты удаляются, а соседние расширяются (Claim 1). Во-вторых, могут использоваться алгоритмы вроде HMM для выбора оптимальных моментов перехода, предпочитая тихие моменты или моменты с меньшим количеством движения.

    Какие практические выводы для YouTube-авторов следуют из этого патента?

    Авторам следует фокусироваться на трех аспектах: максимальном техническом качестве контента (видео и аудио), точности метаданных (особенно для событий, включая геолокацию) и построении социальных связей на платформе. Это увеличивает вероятность того, что их контент будет высоко оценен системами анализа качества.

    Что такое HMM и как он используется в контексте этого патента?

    HMM (Скрытая Марковская Модель) — это статистическая модель, используемая здесь для динамического ранжирования и сегментации видео. Она позволяет системе автоматически определять оптимальные границы сегментов и выбирать лучшие источники, учитывая множество факторов одновременно, таких как качество, содержание и контекст перехода.

    Использует ли система распознавание лиц?

    Да, в патенте упоминается использование техник распознавания лиц/объектов (face/object recognition). Это используется для определения частоты появления определенных людей или объектов в кадре, что является одним из критериев ранжирования сегментов, особенно при кастомизации видео.

    Может ли пользователь повлиять на то, как будет выглядеть итоговое агрегированное видео?

    Да, патент предусматривает возможность кастомизации через Editing Component. Пользователь может вводить свои критерии, которые повлияют на анализ и ранжирование сегментов. Например, можно указать системе фокусироваться на конкретном человеке или отдать приоритет определенным метрикам качества.

    Может ли эта система комбинировать видео с одного источника и аудио с другого?

    Да, в описании патента указано, что аудио и видео анализируются, и система может комбинировать звук. Например, может быть выбрано аудио наивысшего качества из одного источника и объединено с видеорядом из другого источника. Также упоминается возможность создания объемного звука путем агрегации нескольких аудиофайлов.

    Навигация
    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх
    Telegram
    © 2025 SEO HARDCORE

    Type above and press Enter to search. Press Esc to cancel.