Close Menu
    Telegram
    SEO HARDCORE
    • Разборы патентов
      • Патенты Google
      • Патенты Яндекс
    • Скоро
      SEO инструменты
    • Скоро
      SEO аналитика
    SEO HARDCORE
    Разборы патентов • Патенты Google

    Как Google распространяет метки между изображениями, используя не визуальные данные (время, место, контекст)

    SEMANTIC IMAGE LABEL SYNTHESIS (Синтез семантических меток изображений)
    • US8938449B1
    • Google LLC
    • 2015-01-20
    • 2011-09-02
    2011 SERP Мультимедиа Патенты Google Семантика и интент

    Google улучшает понимание содержания изображений, распространяя семантические метки (labels) между ними. Если два изображения связаны не визуальными признаками (сняты в одно время, в одном месте, или сгруппированы в один альбом), система переносит метки с одного изображения на другое. Это позволяет точнее определять контекст и улучшает ранжирование в поиске по картинкам.

    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх

    Описание

    Какую задачу решает

    Патент решает проблему ограниченности существующих методов маркировки изображений. Ручное присвоение меток (labels) трудоемко и непоследовательно. Автоматические методы компьютерного зрения (computer vision techniques) ограничены тем, что могут визуально распознать на самом изображении, часто упуская контекст. Изобретение направлено на обогащение набора меток изображения путем переноса контекста из связанных с ним изображений для повышения релевантности в поиске по картинкам.

    Что запатентовано

    Запатентована система синтеза семантических меток для изображений. Суть изобретения заключается в корректировке меток (labels) и их оценок уверенности (confidence scores) для изображения на основе меток других изображений, которые признаны «близкими» (proximate). Ключевая особенность в том, что эта близость определяется на основе не визуальных метаданных (время, место, автор, альбом), а не на основе визуального сходства контента.

    Как это работает

    Система работает путем «распространения» или «размазывания» (smearing) меток между связанными изображениями:

    • Инициализация: Изображения имеют начальный набор меток с оценками уверенности, полученный, например, от системы компьютерного зрения (Vision-Based Label System) или вручную.
    • Расчет близости: Для двух изображений система вычисляет Proximity Score (оценку близости), сравнивая их метаданные (Proximity Metric Values), такие как время съемки, геолокация, автор и принадлежность к альбому. Этот расчет не зависит от визуального содержания.
    • Распространение меток: Если Proximity Score высок, система переносит высокоуверенные метки с одного изображения на другое. Если метка уже существовала, ее Confidence Score корректируется (обычно увеличивается). Если метки не было, она добавляется с новой оценкой уверенности, рассчитанной на основе исходной оценки и Proximity Score.

    Актуальность для SEO

    Высокая. Понимание контекста изображений остается критически важной задачей для Google Images, Google Lens и Google Photos. Хотя технологии компьютерного зрения значительно продвинулись, контекстуальные сигналы, описанные в патенте (метаданные, организация контента), по-прежнему необходимы для устранения неоднозначности и обогащения данных об изображениях.

    Важность для SEO

    Патент имеет значительное влияние на стратегии SEO для изображений. Он напрямую описывает механизм, с помощью которого Google интерпретирует контекст изображений, что влияет на их ранжирование в Image Search. Патент подчеркивает важность точных метаданных (например, EXIF/IPTC) и контекста, в котором изображения представлены на сайте (например, группировка в тематические разделы или альбомы).

    Детальный разбор

    Термины и определения

    Album Name (Название альбома)
    Семантический идентификатор, связанный с изображением или группой изображений. Используется как Proximity Metric Value.
    Confidence Score (Оценка уверенности)
    Показатель уверенности в том, что метка (label) точно описывает содержание изображения. Часто выражается в диапазоне от 0 до 1.
    Image Label (Метка изображения)
    Данные (обычно семантические, читаемые человеком), которые описывают содержание изображения, например, объект на нем, контекст или тему.
    Proximity Metric Values (PMV) (Значения метрик близости)
    Метрики, связанные с изображением, которые можно сравнить с метриками других изображений для определения их связанности. Эти метрики не зависят от визуального контента и включают Timestamp (время), Geo-location (место), User Identifier (пользователь) и Album Name.
    Proximity Score (PS) (Оценка близости)
    Мера связанности одного изображения с другим, рассчитанная на основе сравнения их Proximity Metric Values. Не зависит от визуального сходства.
    Vision-Based Label System (Система маркировки на основе зрения)
    Система, использующая методы компьютерного зрения (OCR, распознавание лиц, объектов) для автоматического создания начальных меток для изображений.

    Ключевые утверждения (Анализ Claims)

    Claim 1 (Независимый пункт): Описывает основной метод синтеза меток.

    1. Система получает доступ к изображениям, их меткам и Confidence Scores.
    2. Система получает доступ к Proximity Metric Values для первого и второго изображений.
    3. Вычисляется Proximity Score для второго изображения относительно первого на основе сравнения их Proximity Metric Values.
    4. Идентифицируется вторая метка (Label 2) у второго изображения с ее оценкой уверенности (Score 2).
    5. Генерируется первая метка (Label 1) для первого изображения. Генерация основана на Label 2, Proximity Score и Score 2.
    6. Определяется оценка уверенности (Score 1) для Label 1, также основанная на Proximity Score и Score 2.

    Это ядро изобретения: использование не визуальной близости для переноса семантических меток между изображениями.

    Claim 12 (Зависимый от 1): Критически важное уточнение.

    Определение Proximity Score для второго изображения происходит независимо от контента, изображенного на втором изображении. Это подтверждает, что система использует исключительно метаданные для определения связанности, а не визуальное сходство.

    Claims 3, 5, 7, 9 (Зависимые от 1): Определяют конкретные типы Proximity Metric Values.

    • Claim 3: Метрика включает Timestamp (время записи изображения).
    • Claim 5: Метрика включает Location (географическое место записи).
    • Claim 7: Метрика включает Album Name (семантический идентификатор альбома).
    • Claim 9: Метрика включает User (пользователя, связанного с изображением).

    Claim 10 (Зависимый от 9): Уточняет использование метрики пользователя.

    Proximity Score определяется на основе меры связанности между пользователями. В описании патента это интерпретируется как использование данных социального графа (social graph data), например, частоты общения или степеней разделения.

    Claim 13 (Зависимый от 1): Вводит пороговые значения для активации.

    Первая метка генерируется только при условии, что Proximity Score второго изображения выше порога близости (proximity score threshold) И оценка уверенности второй метки выше порога уверенности (confidence score threshold). Это механизм защиты от распространения слабых меток.

    Claim 14 (Зависимый от 1): Предлагает конкретную формулу расчета.

    Первая оценка уверенности (Score 1) является произведением Proximity Score второго изображения и оценки уверенности второй метки (Score 2). (Score 1 = Proximity Score * Score 2).

    Где и как применяется

    Изобретение применяется в основном на этапе индексирования для обогащения данных об изображениях.

    CRAWLING – Сканирование и Сбор данных
    На этом этапе собираются сами изображения и их метаданные (например, из EXIF), которые впоследствии будут использоваться как Proximity Metric Values (время, геолокация).

    INDEXING – Индексирование и извлечение признаков
    Основной этап применения патента. Система выполняет несколько действий:

    1. Начальная маркировка: Vision-Based Label System анализирует визуальный контент и присваивает начальные метки и Confidence Scores. Также учитываются метки, добавленные пользователями.
    2. Извлечение метрик: Извлекаются и нормализуются Proximity Metric Values (время, место, автор, альбом).
    3. Синтез меток (Label Synthesis): Описанный в патенте процесс запускается для корректировки и обогащения набора меток путем их распространения между близкими изображениями.

    RANKING – Ранжирование
    На этом этапе (в частности, в поиске по картинкам) используются обогащенные наборы меток и скорректированные Confidence Scores для определения релевантности изображений запросу пользователя.

    Входные данные:

    • Набор изображений в хранилище (Image Data Store).
    • Начальные наборы меток и Confidence Scores для каждого изображения.
    • Proximity Metric Values (метаданные) для каждого изображения.
    • Данные социального графа (для оценки близости пользователей).

    Выходные данные:

    • Скорректированные наборы меток (Adjusted set of labels) для изображений.
    • Скорректированные Confidence Scores для этих меток.

    На что влияет

    • Конкретные типы контента: Наибольшее влияние оказывается на контент, где контекст важен, но визуальные признаки неоднозначны. Например, фотографии с мероприятий (свадьбы, конференции), путешествий, локаций. Если одно фото четко идентифицируется (например, фото фасада здания), то соседние по времени/месту фото интерьера также получат контекст локации.
    • Конкретные ниши: Локальный бизнес (Local SEO), Недвижимость, Туризм, Организация мероприятий.

    Когда применяется

    • Условия работы: Алгоритм применяется к изображениям, для которых доступны Proximity Metric Values.
    • Триггеры активации: Процесс корректировки меток между двумя изображениями активируется, если их Proximity Score превышает установленный порог (proximity score threshold).
    • Условия распространения: Метка распространяется с исходного изображения, только если ее собственный Confidence Score превышает установленный порог (confidence score threshold). Это предотвращает распространение «шумных» или неточных меток.

    Пошаговый алгоритм

    Процесс корректировки меток для выбранного (первого) изображения:

    1. Доступ к данным: Система получает доступ к изображениям, их меткам, оценкам уверенности и метрикам близости.
    2. Выбор изображения: Выбирается первое изображение для обработки.
    3. Расчет близости: Для каждого другого изображения вычисляется Proximity Score на основе сравнения Proximity Metric Values (время, место, автор, альбом). Могут использоваться весовые коэффициенты для разных метрик.
    4. Фильтрация по близости: Выбираются только те изображения, чей Proximity Score превышает proximity score threshold.
    5. Итерация по связанным изображениям: Для каждого выбранного связанного (второго) изображения выполняется:
      1. Фильтрация меток: Идентифицируются метки второго изображения, чьи Confidence Score превышают confidence score threshold.
      2. Корректировка меток первого изображения: На основе выбранных меток второго изображения и Proximity Score происходит корректировка:
        • Добавление новой метки (Синтез): Если метки не было у первого изображения, она добавляется. Новая оценка может рассчитываться как произведение оценки уверенности исходной метки и Proximity Score (например, P_new = P_source * PS).
        • Усиление существующей метки (Корректировка): Если метка уже была, ее Confidence Score увеличивается. В патенте приводится пример формулы: P’ = P + P_source * PS.
    6. Финализация: Сохраняется скорректированный набор меток и оценок для первого изображения.

    Какие данные и как использует

    Данные на входе

    Система использует исключительно данные, не связанные с визуальным содержимым изображения, для расчета близости, но использует результаты визуального анализа (или ручные метки) как исходные данные для распространения.

    • Технические факторы (Метаданные/EXIF):
      • Timestamp: Время создания изображения.
      • Geo-location (Location): Географические координаты или адрес места съемки.
    • Структурные/Организационные факторы:
      • Album Name: Название альбома или группы, к которой принадлежит изображение.
    • Пользовательские и Социальные факторы:
      • User Identifier: Идентификатор пользователя, загрузившего или создавшего изображение.
      • Данные социального графа (Social Graph Data): Информация о связях между пользователями (например, контакты, группы, частота общения).
    • Системные данные (Результаты предварительного анализа):
      • Начальные Image Labels и Confidence Scores.

    Какие метрики используются и как они считаются

    • Proximity Score (PS): Агрегированная оценка связанности двух изображений. Рассчитывается как функция от сравнения отдельных Proximity Metric Values. Патент предполагает, что для разных метрик могут использоваться разные веса и формулы (например, расстояние в квадрате для геолокации, частота общения для социальной дистанции). Точность метрик также может влиять на PS.
    • Confidence Score (CS): Оценка уверенности метки.
    • Пороговые значения:
      • Proximity Score Threshold: Минимальная оценка близости для активации обмена метками.
      • Confidence Score Threshold: Минимальная оценка уверенности метки, необходимая для ее распространения.
    • Формулы корректировки: Патент предлагает несколько вариантов:
      • Для новых меток (Синтез, Claim 14): P11 = P21 * PS12.
      • Для существующих меток (Корректировка, Description): P’11 = P11 + P21 * PS12. Также упоминаются обобщенные вероятностные модели.

    Выводы

    1. Контекст через ассоциацию (Не визуальное сходство): Ключевой вывод заключается в том, что Google может определять семантический контекст изображения не только путем визуального анализа, но и путем анализа связанных с ним изображений. Важно, что связанность (Proximity Score) определяется метаданными (время, место, организация), а не визуальным сходством (Claim 12).
    2. Важность метаданных (EXIF/IPTC): Патент явно указывает на использование Timestamp и Geo-location. Это подтверждает, что метаданные, встроенные в файлы изображений, используются для понимания контента и, как следствие, влияют на ранжирование в поиске по картинкам.
    3. Значение организации контента (Альбомы и Структура сайта): Использование Album Name как метрики близости подчеркивает важность группировки изображений. В контексте веб-сайта это транслируется в разделы, категории или отдельные страницы. Изображения в одном семантическом блоке считаются более связанными и могут активнее обмениваться метками.
    4. Сила «Анкорных» изображений (Anchor Images): Система зависит от наличия начальных высокоуверенных меток. Четкие, легко распознаваемые изображения становятся «анкорями» контекста для соседних, более неоднозначных изображений в той же группе.
    5. Потенциальное использование социальных сигналов: Упоминание User Identifier и данных социального графа указывает на то, что авторство контента и связи между авторами могут влиять на интерпретацию изображений (особенно актуально для UGC и социальных платформ).
    6. Защита от шума: Использование порогов (Thresholds) для близости и уверенности гарантирует, что распространяются только сильные сигналы между действительно связанными изображениями.

    Практика

    Best practices (это мы делаем)

    • Сохранение и оптимизация метаданных (EXIF/IPTC): Обеспечьте наличие точных метаданных в файлах изображений.
      • Время (Timestamp): Убедитесь, что время съемки корректно сохраняется. Это помогает системе связывать изображения, снятые в рамках одного события.
      • Геолокация (Geo-location): Для локального бизнеса, недвижимости или тревел-контента наличие GPS-данных в EXIF критически важно. Это позволяет Google установить сильную пространственную связь и улучшить локальную релевантность меток.
    • Тематическая группировка изображений (Концепция «Альбома»): Организуйте изображения в семантически связанные группы. Размещение связанных изображений вместе на одной странице или в одном разделе (выступающем в роли Album) способствует обмену контекстными метками между ними. Используйте семантически точные заголовки для этих групп.
    • Использование четких «Анкорных» изображений: При публикации серии фотографий (например, фотоотчет, карточка товара с разных ракурсов) убедитесь, что ключевые изображения («hero shots») визуально четкие и легко распознаются системами компьютерного зрения. Высокоуверенные метки, полученные этими изображениями, будут распространяться на соседние, более сложные для распознавания кадры.
    • Оптимизация под начальное распознавание: Продолжайте следовать стандартным практикам Image SEO (качество изображения, alt-тексты), чтобы максимизировать вероятность получения точных начальных меток от Vision-Based Label System.

    Worst practices (это делать не надо)

    • Удаление всех метаданных (Metadata Stripping): Автоматическое удаление EXIF/IPTC данных при загрузке изображений на сайт лишает поисковую систему важных Proximity Metric Values (время, место). Это блокирует работу описанного механизма синтеза меток.
    • Смешивание несвязанного контента: Размещение изображений из разных тематик или событий в одном неструктурированном блоке или «альбоме». Это может привести к некорректному распространению меток (например, метки от товаров могут смешаться с метками от фотографий офиса).
    • Манипуляция метаданными (Fake Geo-tagging): Попытка присвоить изображениям ложные координаты или время для манипуляции локальным поиском может привести к генерации неверных меток и снижению общей релевантности.
    • Использование только неоднозначных изображений: Публикация серии изображений, ни одно из которых не может быть уверенно распознано компьютерным зрением. В этом случае системе нечего будет распространять, так как не будет высокоуверенных начальных меток.

    Стратегическое значение

    Этот патент подтверждает, что Image SEO выходит за рамки оптимизации отдельного файла и alt-атрибута. Google стремится понять контекст, в котором существует изображение. Стратегия должна учитывать архитектуру сайта, организацию медиа-контента и технические аспекты обработки файлов (метаданные). Для сайтов с большим количеством изображений (e-commerce, медиа, тревел, локальный бизнес) правильное управление контекстом и метаданными может дать преимущество в поиске по картинкам за счет более полного и точного набора семантических меток.

    Практические примеры

    Сценарий: Оптимизация фотоотчета с конференции

    1. Действие: Фотограф делает 100 снимков на конференции «SEOConf 2025» в Берлине. Перед загрузкой на сайт проверяется, что все фото имеют корректные Timestamp и GPS-координаты места проведения.
    2. Группировка: Фотографии загружаются в раздел сайта с заголовком «Фотоотчет SEOConf 2025, Берлин». Это выступает в роли Album Name.
    3. Анкорные изображения: Среди фотографий есть четкие снимки сцены с логотипом конференции (где работает OCR) и снимки известных спикеров (где работает распознавание лиц).
    4. Процесс Google:
      • Vision-Based Label System распознает логотип (метка «SEOConf 2025») и лица спикеров (метки с именами) на анкорных изображениях с высоким Confidence Score.
      • Система вычисляет высокий Proximity Score между всеми 100 фотографиями, так как они имеют близкие Timestamp, одинаковые Geo-location и находятся в одном «альбоме».
      • Метки «SEOConf 2025» и имена спикеров распространяются на остальные фотографии (например, снимки аудитории, кофе-брейка), даже если на них нет логотипов или лиц.
    5. Результат: Все фотографии, включая неоднозначные снимки аудитории, получают релевантный контекст и лучше ранжируются по запросам, связанным с конференцией и спикерами.

    Вопросы и ответы

    Использует ли Google EXIF-данные изображений согласно этому патенту?

    Да, патент явно указывает на использование Proximity Metric Values, таких как Timestamp (время съемки) и Geo-location (местоположение). Эти данные обычно хранятся в метаданных файла изображения, таких как EXIF. Сохранение точных метаданных помогает Google устанавливать контекстную связь между изображениями.

    Описывает ли этот патент систему визуального сходства (Visual Similarity)?

    Нет. Наоборот, в патенте (в частности, в Claim 12) подчеркивается, что расчет близости (Proximity Score) происходит независимо от изображенного контента. Система предназначена для поиска связи на основе метаданных (время, место, автор, альбом), а не визуальных признаков.

    Как этот механизм влияет на изображения, размещенные на одной веб-странице?

    Патент использует термин «альбом» (Album Name) как одну из ключевых метрик близости. В контексте веб-сайта это можно интерпретировать как группировку изображений на одной странице, в одном разделе или категории. Изображения, размещенные вместе в семантически связанном блоке, с большей вероятностью будут считаться близкими и смогут обмениваться контекстными метками.

    Как система защищается от переноса неправильных меток?

    Система использует два основных порога для контроля качества. Во-первых, Proximity Score Threshold гарантирует, что метки переносятся только между действительно близкими (контекстуально связанными) изображениями. Во-вторых, Confidence Score Threshold гарантирует, что переносятся только те метки, в точности которых система уже уверена. Это значительно снижает распространение шума и ошибок.

    Может ли этот алгоритм помочь моему визуально неоднозначному изображению получить правильные метки?

    Да, это основная цель патента. Если ваше неоднозначное изображение контекстуально связано (по времени, месту или альбому) с другим изображением, которое система смогла уверенно распознать (так называемое «анкорное изображение»), то высокоуверенные метки будут перенесены на ваше изображение, улучшая его понимание системой.

    Какое значение этот патент имеет для локального SEO?

    Значение высокое. Использование Geo-location как ключевой метрики близости позволяет Google связывать изображения с конкретными местами. Если изображение вашего бизнеса имеет точные гео-метки (в EXIF), оно может получить релевантные семантические метки от других изображений, снятых там же, что улучшит его видимость в локальном поиске и на Картах.

    Стоит ли автоматически удалять все EXIF-данные с изображений на сайте?

    С точки зрения SEO, это не лучшая практика. Хотя удаление метаданных может незначительно уменьшить размер файла, вы теряете ценные контекстные сигналы (время и место), которые Google использует для понимания содержания изображения, как описано в этом патенте. Рекомендуется сохранять релевантные метаданные.

    Как рассчитывается новая оценка уверенности при переносе метки?

    Патент предлагает несколько формул. Для новой метки (Claim 14) это может быть произведение Proximity Score (насколько изображения связаны) и исходной Confidence Score метки. Например, если связанность 0.9, а исходная уверенность 0.8, новая оценка будет 0.72. Если метка уже существовала, может использоваться аддитивная формула для ее усиления.

    Учитывает ли система авторство и социальные связи?

    Да, патент упоминает User Identifier как метрику близости и использование социального графа для определения связанности между авторами разных изображений. Если два пользователя социально связаны и сделали фотографии в одном месте, это увеличивает Proximity Score между их изображениями.

    Как система определяет начальные метки (Initial Labels)?

    Начальные метки генерируются либо вручную пользователями, либо автоматически с помощью Vision-Based Label System. Эта система использует технологии компьютерного зрения, такие как распознавание объектов, лиц, оптическое распознавание текста (OCR) на изображении.

    Навигация
    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх
    Telegram
    © 2025 SEO HARDCORE

    Type above and press Enter to search. Press Esc to cancel.