Close Menu
    Telegram
    SEO HARDCORE
    • Разборы патентов
      • Патенты Google
      • Патенты Яндекс
    • Скоро
      SEO инструменты
    • Скоро
      SEO аналитика
    SEO HARDCORE
    Разборы патентов • Патенты Google

    Как Google использует сегментацию изображений для быстрого распознавания и локализации объектов

    SYSTEM AND METHOD FOR USING SEGMENTATION TO IDENTIFY OBJECT LOCATION IN IMAGES (Система и метод использования сегментации для определения местоположения объектов на изображениях)
    • US10061999B1
    • Google LLC
    • 2018-08-28
    • 2011-11-17
    2011 Мультимедиа Патенты Google

    Google использует метод обнаружения объектов, основанный на сегментации изображений. Система обучается связывать визуальные фрагменты (сегменты) с расположением всего объекта (Bounding Box). При анализе нового изображения система быстро определяет, какие объекты присутствуют и где они расположены, комбинируя прогнозы от разных сегментов. Это позволяет эффективно понимать содержание изображений для Поиска по картинкам и Google Lens.

    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх

    Описание

    Какую задачу решает

    Патент решает проблему высокой вычислительной сложности традиционных методов обнаружения объектов (Object Detection). Поиск объекта на изображении подразумевает проверку огромного количества потенциальных прямоугольников (Bounding Boxes). Изобретение призвано радикально сократить количество проверяемых областей, тем самым повышая скорость и эффективность процесса распознавания объектов в изображениях и видео.

    Что запатентовано

    Запатентована система обнаружения объектов, основанная на сегментации изображений (Image Segmentation). Система создает структуру данных (Codebook), которая связывает визуальные характеристики частей объектов (Prototypical Segments) с вероятным расположением целого объекта (Bounding Box). Вместо полного сканирования изображения система анализирует сегменты и использует Codebook для предсказания местоположения объекта.

    Как это работает

    Система работает в два этапа: Обучение и Обнаружение.

    • Обучение (Offline): Анализируется обучающий набор изображений с известным расположением объектов. Изображения сегментируются. Схожие сегменты (например, части колеса) кластеризуются для создания Prototypical Segments. Система запоминает, где относительно этих прототипов обычно находится весь объект, формируя Codebook.
    • Обнаружение (Online/Inference): Новое изображение сегментируется. Каждый сегмент сравнивается с Codebook. Совпадающие прототипы «голосуют» за потенциальные Bounding Boxes. Система комбинирует все предложенные Bounding Boxes и выбирает те, которые имеют наивысшую вероятность.

    Актуальность для SEO

    Высокая. Эффективное и быстрое распознавание объектов является фундаментальной задачей компьютерного зрения. Методы, основанные на сегментации, критически важны для работы таких сервисов, как Google Images, Google Lens, YouTube и систем анализа визуального контента в масштабе веба. (Примечание: оригинальная заявка подана в 2011 году).

    Важность для SEO

    Патент имеет высокое значение для SEO (8/10), особенно в области E-commerce и визуального поиска (Visual Search). Он описывает фундаментальный механизм того, как Google «видит» и каталогизирует визуальное содержимое. Понимание этого механизма критически важно для оптимизации изображений таким образом, чтобы они были легко интерпретируемы алгоритмами сегментации и распознавания, что напрямую влияет на видимость в Google Images и Google Lens.

    Детальный разбор

    Термины и определения

    Bounding Box (Ограничивающий прямоугольник)
    Минимальный прямоугольник, который полностью охватывает объект на изображении. Определяет местоположение и размер объекта.
    Clustering (Кластеризация)
    Процесс группировки похожих сегментов из разных тренировочных изображений на основе их визуальных характеристик.
    Codebook (Кодовая книга / Структура данных)
    База данных, содержащая набор кодовых слов (Code Words), определяющих объект. Хранит информацию о Prototypical Segments и связанных с ними Bounding Boxes.
    Code Word (Кодовое слово)
    Запись в Codebook, представляющая один Prototypical Segment. Включает его визуальные характеристики и набор потенциальных Bounding Boxes (например, в виде распределения вероятностей или гистограммы).
    Initial Set / Reduced Set of Bounding Boxes
    Initial Set – совокупность всех потенциальных рамок, предложенных отдельными сегментами. Reduced Set – итоговый набор рамок после комбинирования и фильтрации.
    Object Class (Класс объекта)
    Категория, к которой принадлежит объект (например, «автомобиль», «дерево», «лицо»).
    Prototypical Segment (Прототипный сегмент)
    Репрезентативный сегмент, полученный в результате кластеризации. Представляет общие визуальные характеристики типичной части объекта (например, «часть колеса»).
    Segmentation (Сегментация)
    Процесс разделения изображения на области (сегменты), состоящие из пикселей с общими характеристиками (цвет, текстура, интенсивность).
    Support Vector Machine (SVM)
    Алгоритм машинного обучения, который упоминается как возможный метод для выполнения кластеризации или регрессии.

    Ключевые утверждения (Анализ Claims)

    Патент US10061999B1 является разделением (divisional) более ранней заявки и фокусируется на процессе обучения (генерации структуры данных).

    Claim 1 (Независимый пункт): Описывает метод генерации структуры данных (Codebook) для предсказания расположения объектов.

    1. Идентификация обучающего набора изображений, где каждое изображение имеет определенный Bounding Box с классом и локацией объекта.
    2. Сегментация каждого изображения в обучающем наборе. Сегменты — это наборы пикселей с общими визуальными характеристиками.
    3. Кластеризация сегментов на основе классов объектов.
    4. Генерация структуры данных (Codebook) на основе кластеризации. Каждая запись содержит: (i) набор визуальных характеристик для Prototypical Segment (который представляет собой комбинацию схожих сегментов из разных изображений одного класса) и (ii) связанный набор потенциальных Bounding Boxes.
    5. Эта структура данных используется для предсказания Bounding Boxes в новых изображениях.

    Claim 7 (Зависимый от 1): Описывает процесс использования сгенерированной структуры данных для анализа нового изображения (Inference).

    1. Сегментация текущего (нового) изображения.
    2. Для каждого сегмента: поиск в структуре данных записи (Prototypical Segment), чьи визуальные характеристики наиболее похожи на характеристики текущего сегмента, и определение связанных с ней потенциальных Bounding Boxes.
    3. Формирование начального набора (Initial Set) Bounding Boxes для всего изображения путем сбора предсказаний от всех сегментов.
    4. Определение сокращенного набора (Reduced Set) Bounding Boxes путем комбинирования прямоугольников из начального набора. Этот набор представляет финальный результат обнаружения объектов.

    Где и как применяется

    Изобретение описывает инфраструктурные процессы компьютерного зрения, применяемые на этапе обработки визуального контента.

    CRAWLING – Сканирование и Сбор данных
    Система получает изображения или видеокадры для анализа.

    INDEXING – Индексирование и извлечение признаков
    Основной этап применения. Процесс можно разделить на две фазы:

    1. Обучение (Offline): Object Model Creator обрабатывает тренировочные данные для генерации Codebooks. Это ресурсоемкий процесс, включающий сегментацию и кластеризацию.
    2. Индексирование (Feature Extraction): Когда Google индексирует новое изображение, Object Detection/Recognition Engine применяет этот механизм. Он использует предварительно рассчитанные Codebooks для быстрого распознавания и локализации объектов. Результаты (обнаруженные объекты и их классы) сохраняются как признаки (features) контента в индексе.

    RANKING – Ранжирование
    Влияние косвенное. Сама система обнаружения не ранжирует контент, но данные, которые она генерирует (понимание того, какие объекты присутствуют на изображении), используются как сигналы ранжирования в системах, ориентированных на визуальный контент (Google Images, YouTube, Google Lens).

    Входные данные:

    • (Обучение): Набор изображений с разметкой (Bounding Boxes, Object Classes).
    • (Применение): Пиксельные данные нового изображения; предварительно сгенерированные Codebooks.

    Выходные данные:

    • (Обучение): Структура данных (Codebook).
    • (Применение): Сокращенный набор Bounding Boxes с указанием Object Class и местоположения.

    На что влияет

    • Конкретные типы контента: Влияет на любой визуальный контент — фотографии, иллюстрации, видеокадры. Наиболее важно для страниц, где визуальный контент является основным (карточки товаров, галереи).
    • Конкретные ниши или тематики: Критически важен для E-commerce (идентификация продуктов), моды, автомобилей и любых тематик, где визуальная идентификация объектов играет ключевую роль.

    Когда применяется

    • Условия применения: Алгоритм обнаружения активируется при индексации или анализе любого нового изображения или видео.
    • Триггеры активации: Наличие изображения в процессе индексации или запрос на анализ изображения (например, через Google Lens). Процесс обучения выполняется офлайн и периодически обновляется.

    Пошаговый алгоритм

    Алгоритм состоит из двух отдельных процессов: Обучение (A) и Обнаружение (Б).

    Процесс А: Обучение и генерация Codebook (Офлайн)

    1. Сбор данных: Получение обучающего набора изображений с размеченными Bounding Boxes и Object Classes.
    2. Сегментация: Каждое изображение разбивается на сегменты на основе цвета, текстуры и интенсивности. Может использоваться иерархическая сегментация.
    3. Кластеризация: Сегменты из разных изображений, принадлежащие одному классу объекта, группируются по визуальному сходству (например, с использованием SVM или k-means).
    4. Идентификация прототипов: Для каждого кластера определяется Prototypical Segment (усредненные характеристики).
    5. Расчет Bounding Boxes: Анализируется, какие Bounding Boxes были связаны с сегментами этого кластера в обучающих данных.
    6. Генерация записей (Code Words): Создается запись в Codebook для прототипа. Она включает его визуальные характеристики и набор потенциальных Bounding Boxes (в виде гистограммы или распределения вероятностей).
    7. Взвешивание (Опционально): Записи могут быть взвешены на основе частоты (frequency) появления прототипа в данном классе объектов.

    Процесс Б: Обнаружение объектов (Онлайн / Inference)

    1. Получение и Сегментация: Новое изображение разбивается на сегменты.
    2. Сравнение с Codebook: Каждый сегмент сравнивается с записями (Prototypical Segments) в Codebook. Вычисляется мера сходства (Similarity Measure), например, Евклидово расстояние между векторами характеристик.
    3. Генерация исходного набора (Initial Set): Сегменты, нашедшие близкое совпадение, «голосуют» за потенциальные Bounding Boxes, связанные с соответствующей записью.
    4. Взвешивание и Комбинирование: Голоса (вероятности или значения гистограмм) комбинируются. При этом могут учитываться веса записей из Codebook и мера сходства сегмента с прототипом.
    5. Генерация сокращенного набора (Reduced Set): Выбираются Bounding Boxes с наивысшими комбинированными вероятностями или значениями.
    6. Верификация (Опционально): Может быть выполнен дополнительный анализ содержимого внутри финальных Bounding Boxes для подтверждения класса объекта.

    Какие данные и как использует

    Данные на входе

    Система фокусируется исключительно на анализе визуальных данных.

    • Мультимедиа факторы (Визуальные характеристики): Это основные данные. Система анализирует пиксельные данные для извлечения характеристик сегментов:
      • Цвет (Color) (например, гистограммы RGB).
      • Интенсивность (Intensity).
      • Текстура (Texture).
    • Структурные/Геометрические факторы:
      • Размер и форма сегмента.
      • Положение сегмента на изображении.
    • Данные разметки (Training Data): В процессе обучения используются предварительно размеченные Object Class и Bounding Box.

    Какие метрики используются и как они считаются

    • Дескрипторы сегментов (Segment Descriptors): Векторы или гистограммы, суммирующие визуальные характеристики сегмента.
    • Similarity Measure (Мера сходства): Метрика для сравнения дескриптора сегмента с дескриптором Prototypical Segment. В патенте упоминается Евклидово расстояние (Euclidean distance) и функции ядра (Kernel Functions).
    • Probability Distribution / Histogram: Способы хранения связи между прототипом и потенциальными Bounding Boxes. Описывают вероятность или частоту расположения объекта относительно сегмента.
    • Weighting Value (Вес): Используется для взвешивания записей в Codebook (на основе частоты прототипа) или для взвешивания предсказаний Bounding Boxes (на основе меры сходства).
    • Алгоритмы машинного обучения: Упоминается использование Support Vector Machine (SVM) для кластеризации и регрессии (Regression) для определения итогового набора рамок.

    Выводы

    1. Обнаружение объектов — это основа визуального поиска: Патент описывает фундаментальный метод, который Google использует для понимания, ЧТО изображено на картинке и ГДЕ это находится. Это критически важно для работы Google Images, Google Lens и интерпретации визуального контента на веб-страницах.
    2. Подход «от части к целому» (Bottom-Up): Система распознает объект путем комбинирования информации от его частей (сегментов). Каждый сегмент «голосует» за возможное расположение целого объекта. Для успешного распознавания важно, чтобы ключевые части объекта были четко видны и узнаваемы.
    3. Критичность сегментации: Способность системы успешно разделить изображение на значимые сегменты (Segmentation) является предпосылкой для точного распознавания. Если сегментация не удалась (например, из-за низкого контраста), объект может быть не обнаружен.
    4. Зависимость от обучающих данных (Codebook): Система полагается на базу знаний (Codebook), созданную на основе анализа огромного количества изображений. Точность распознавания зависит от качества и разнообразия тренировочных данных.
    5. Фокус на визуальных признаках: Распознавание в этом алгоритме основано исключительно на визуальных характеристиках (цвет, текстура, форма), а не на метаданных (ALT-текст).

    Практика

    Best practices (это мы делаем)

    Понимание механизма сегментации и распознавания позволяет сформулировать лучшие практики по оптимизации изображений для лучшей машинной интерпретации.

    • Обеспечение «Дружелюбности к Сегментации» (Segmentation Friendliness): Оптимизируйте изображения так, чтобы алгоритмам было легко отделить объект от фона. Используйте контрастные фоны и четкое освещение. Это помогает системе корректно выделить сегменты, принадлежащие объекту.
    • Высокое качество и четкость изображений: Используйте изображения высокого разрешения, где детали и текстуры объекта хорошо различимы. Это позволяет системе извлекать более точные визуальные характеристики для сегментов и надежнее сопоставлять их с Prototypical Segments.
    • Фокус на главном объекте: Убедитесь, что главный объект (например, товар) является центральным элементом изображения, находится в фокусе и не перекрывается другими объектами. Четкие границы объекта способствуют точному определению Bounding Box.
    • Использование стандартных ракурсов (для E-commerce): Объекты, снятые в стандартных, узнаваемых ракурсах, будут распознаны с большей вероятностью, так как их сегменты будут лучше соответствовать обученным прототипам в Codebook.

    Worst practices (это делать не надо)

    • Использование сложных и пестрых фонов: Фоны, которые визуально сливаются с объектом (похожие цвета или текстуры), затрудняют сегментацию и могут привести к ошибкам в определении границ объекта.
    • Низкий контраст и плохое освещение: Изображения с плохим освещением искажают визуальные характеристики сегментов, что приводит к ошибкам при сравнении с Codebook.
    • Абстрактные или сильно стилизованные изображения: Если объект представлен в необычном виде, его сегменты могут не совпасть ни с одним из Prototypical Segments, даже если человек легко его узнает.
    • Чрезмерное использование водяных знаков и перекрытий: Большие водяные знаки или другие объекты, перекрывающие основной объект, могут изменить визуальные характеристики сегментов и помешать распознаванию.

    Стратегическое значение

    Патент подтверждает стратегический приоритет Google в развитии компьютерного зрения для понимания контента. Для SEO это означает, что оптимизация изображений — это не только заполнение ALT-тегов, но и обеспечение «машиночитаемости» самих визуальных активов. В E-commerce способность Google точно идентифицировать продукт на изображении напрямую влияет на видимость сайта в товарных и визуальных поисках.

    Практические примеры

    Сценарий: Оптимизация изображения товара для E-commerce (например, кроссовки)

    1. Задача: Улучшить распознавание модели кроссовок в Google Images и Lens.
    2. Действие 1 (Фон): Вместо съемки кроссовки на сложном текстурном фоне (например, на траве), используйте однотонный белый фон.
    3. Результат 1 (Сегментация): Алгоритм легко выполняет Segmentation, отделяя сегменты кроссовки от фона.
    4. Действие 2 (Освещение и Детали): Используйте профессиональное освещение, чтобы подчеркнуть текстуру материала и детали дизайна (швы, логотип).
    5. Результат 2 (Распознавание): Сегменты (логотип, подошва, шнурки) получают четкие визуальные характеристики. Система сравнивает их с Codebook и находит сильные совпадения с Prototypical Segments для класса «кроссовки».
    6. Итоговый результат: Каждый распознанный сегмент предлагает согласованный Bounding Box. Система точно идентифицирует объект и его границы, что повышает шансы изображения появиться в релевантных результатах визуального поиска.

    Вопросы и ответы

    Влияет ли этот патент на ранжирование в основном веб-поиске?

    Напрямую нет. Это алгоритм компьютерного зрения для обнаружения объектов. Однако он влияет косвенно. Если система с помощью этого механизма может понять, что изображено на картинках веб-страницы, эта информация используется для оценки релевантности и качества контента страницы в целом, особенно если изображение является важной частью контента (например, на странице товара).

    Как этот механизм связан с ALT-тегами и окружающим текстом?

    Этот механизм работает независимо от текстовых данных. Он анализирует исключительно пиксели. Для SEO это означает, что Google может понять содержание изображения, даже если ALT-тег отсутствует или некорректен. Визуальное распознавание является первичным источником данных для системы, но ALT-теги остаются важными для доступности и как дополнительный сигнал контекста.

    Что такое «Segmentation Friendliness» и почему это важно для SEO?

    «Segmentation Friendliness» (Дружелюбность к сегментации) — это характеристика изображения, определяющая, насколько легко алгоритмы могут разделить его на значимые области (сегменты) и отделить объект от фона. Согласно патенту, сегментация является первым и критически важным шагом. Если изображение плохо поддается сегментации (например, из-за низкого контраста между объектом и фоном), система может не распознать объект, что негативно скажется на его видимости в визуальном поиске.

    Влияет ли фон изображения на распознавание объектов согласно этому патенту?

    Да, косвенно влияет. Если фон сложный, пестрый или имеет схожие цвета и текстуры с объектом, процесс сегментации может быть затруднен. Алгоритму будет сложнее определить границы объекта и корректно выделить его сегменты, что может привести к ошибкам в распознавании или неправильному определению Bounding Box.

    Влияет ли качество (разрешение, четкость) изображения на работу этого алгоритма?

    Да, имеет большое значение. Высокое качество и разрешение позволяют системе извлекать более детальные визуальные характеристики (цвет, текстуру) сегментов. Это повышает точность сопоставления сегментов с прототипами в Codebook. На размытых или пикселизированных изображениях признаки выражены слабо, что затрудняет распознавание.

    Может ли система распознать объект, если видна только его часть?

    Да, механизм это предусматривает. Поскольку система анализирует отдельные сегменты, даже если видны только несколько ключевых сегментов (например, колесо и фара), они могут дать достаточно голосов (Bounding Box predictions) для успешного распознавания целого объекта (автомобиля).

    Что такое Codebook в контексте этого патента?

    Codebook — это база знаний, которую система создает во время обучения. Она содержит список «прототипичных визуальных фрагментов» (Prototypical Segments), которые часто встречаются у объектов определенного класса. Для каждого такого фрагмента Codebook хранит информацию о том, где обычно находится весь объект относительно этого фрагмента.

    Применяется ли этот алгоритм только к фотографиям или также к иллюстрациям и схемам?

    Алгоритм универсален и применяется к любым изображениям. Иллюстрации и схемы часто даже легче сегментируются из-за более четких линий и однородных цветовых областей, что может способствовать эффективному распознаванию изображенных на них элементов.

    Стоит ли использовать структурированные данные (Schema.org) для изображений, если Google и так распознает объекты?

    Да, обязательно стоит. Структурированные данные предоставляют явную и недвусмысленную информацию об объекте (например, разметка Product). Алгоритмы компьютерного зрения, такие как описанный в патенте, используются для верификации этой информации и извлечения дополнительных визуальных признаков. Использование обоих подходов обеспечивает наиболее полное понимание контента системой Google.

    Используется ли этот механизм для анализа видео?

    Да. В патенте указано, что изобретение также применимо к видео. Обнаружение может выполняться для отдельных кадров видео, или же оценки могут комбинироваться по нескольким кадрам (combine estimates over multiple frames) для повышения точности.

    Навигация
    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх
    Telegram
    © 2025 SEO HARDCORE

    Type above and press Enter to search. Press Esc to cancel.