Close Menu
    Telegram
    SEO HARDCORE
    • Разборы патентов
      • Патенты Google
      • Патенты Яндекс
    • Скоро
      SEO инструменты
    • Скоро
      SEO аналитика
    SEO HARDCORE
    Разборы патентов • Патенты Google

    Как Google использует метаданные, распознавание объектов и личные данные для автоматической группировки и наименования фотоальбомов

    AUTOMATICALLY ORGANIZING IMAGES (Автоматическая организация изображений)
    • US20180365489A1
    • Google LLC
    • 2018-12-20
    • 2014-06-13
    2014 Мультимедиа Патенты Google Персонализация

    Google использует систему для анализа контекста личных фотографий. Система извлекает метаданные (время, геолокация) и анализирует визуальные характеристики (объекты, лица). Эта информация сопоставляется с внешними данными (публичные базы знаний, календарь пользователя) для автоматической кластеризации изображений в альбомы и присвоения им осмысленных названий.

    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх

    Описание

    Какую задачу решает

    Патент решает проблему организации больших массивов цифровых фотографий, которые часто хранятся без идентифицирующей или контекстной информации (например, без тегов или осмысленных имен файлов). Задача — автоматизировать процесс группировки связанных изображений в альбомы и присвоения этим альбомам релевантных названий, избавляя пользователя от трудоемкой ручной работы.

    Что запатентовано

    Запатентована система автоматической организации и наименования групп цифровых изображений. Система кластеризует изображения на основе метаданных (время, геолокация) и анализа визуального содержания (распознавание объектов, лиц). Для генерации названия группы система сопоставляет эти данные с внешними источниками информации (External Data), такими как календарь пользователя, базы данных географических объектов или публичные события.

    Как это работает

    Система работает в несколько этапов:

    • Сбор и Извлечение данных: Извлекаются метаданные (Time Information, Geolocation Information) из набора изображений. Также анализируется визуальный контент для извлечения видимых характеристик (Visible Features).
    • Кластеризация (Группировка): Изображения группируются на основе близости во времени, географической близости или наличия общих/семантически связанных (semantic relatedness) видимых характеристик.
    • Идентификация контекста: Система ищет корреляции между данными группы изображений и External Data. Например, проверяется календарь пользователя на наличие событий в то же время, или координаты сопоставляются с базой данных достопримечательностей.
    • Генерация названия: На основе найденного контекста (событие, место, люди, концепция) генерируется описательное название (title) для группы изображений (альбома).

    Актуальность для SEO

    Высокая. Технологии, описанные в патенте, активно используются в продуктах для управления личными фотографиями, таких как Google Photos. Возможности Google в области компьютерного зрения (распознавание объектов, лиц, достопримечательностей) и анализа контекстных метаданных постоянно развиваются.

    Важность для SEO

    Влияние на стандартные стратегии SEO низкое (3/10). Патент не описывает алгоритмы ранжирования публичного веб-поиска или Google Images. Он фокусируется на организации личного контента пользователя. Однако он имеет стратегическое значение для понимания того, как Google интерпретирует изображения. Патент демонстрирует способность Google понимать контекст, события, местоположение и объекты на изображении, используя только метаданные и визуальный анализ, без необходимости анализа окружающего текста на веб-странице.

    Детальный разбор

    Термины и определения

    Album / Digital Image Group (Альбом / Группа цифровых изображений)
    Коллекция связанных цифровых изображений, автоматически сгенерированная системой.
    Clustering (Кластеризация)
    Процесс группировки изображений на основе общих характеристик (время, местоположение, визуальное содержание). В патенте упоминается алгоритм k-means clustering.
    External Data (Внешние данные)
    Информация, используемая для генерации названия альбома, которая не содержится в самих изображениях. Включает личные данные пользователя (календарь, электронная почта, контакты в социальных сетях) и публичные данные (базы данных событий, географические репозитории, базы знаний об объектах).
    Geolocation Information (Информация о геолокации)
    Метаданные (например, координаты), описывающие место, где было записано изображение.
    Home Location (Домашнее местоположение)
    Место, где пользователь живет или проводит значительное количество времени. Система может определять его автоматически путем анализа кластеров изображений или получать от пользователя.
    Indexed Features (Индексированные характеристики)
    Видимые части изображения, связанные с информацией (например, векторами признаков), которые делают эти характеристики доступными для поиска и сравнения с другими изображениями.
    Relatedness Metric (Метрика связанности)
    Вероятностная оценка, которая может быть сгенерирована алгоритмом кластеризации и представляет вероятность того, что изображения в группе действительно связаны.
    Semantic Relatedness (Семантическая связанность)
    Связь между различными объектами, распознанными на изображениях, позволяющая определить общую концепцию (например, объекты «торт» и «подарки» связаны с концепцией «вечеринка»).
    Time Information (Информация о времени)
    Метаданные (например, временная метка), описывающие дату и время записи изображения.
    Visible Features (Видимые характеристики)
    Информация, извлеченная из пиксельных данных изображения. Используется для распознавания объектов (Object recognition), лиц (Facial recognition), достопримечательностей.

    Ключевые утверждения (Анализ Claims)

    Claim 1 (Независимый пункт): Описывает основной метод присвоения названия группе цифровых изображений, фокусируясь на использовании времени и личного календаря пользователя.

    1. Система получает набор цифровых изображений, связанных с пользователем.
    2. Извлекается информация о времени (time information).
    3. Изображения кластеризуются (clustering) в группы на основе времени. Выделяется конкретная группа, соответствующая первому временному периоду.
    4. Система идентифицирует запись в календаре пользователя (calendar entry), которая имеет второй временной период, пересекающийся с первым (common time period).
    5. В название группы добавляется дескриптор этого общего временного периода.
    6. Название присваивается группе изображений.

    Claim 2 (Зависимый от 1): Дополняет метод использованием визуального анализа и семантики.

    1. Из группы изображений извлекаются видимые характеристики (visible image features).
    2. На основе семантической связанности (semantic relatedness) этих характеристик идентифицируется концепция (concept).
    3. Эта концепция добавляется к названию группы.

    Claim 3 (Зависимый от 1): Дополняет метод использованием распознавания лиц.

    1. С помощью распознавания лиц (facial recognition) в группе изображений идентифицируется человек.
    2. Имя этого человека добавляется к названию группы.

    Claims 4 и 5 (Зависимые от 3): Детализируют источники имени человека: контакты пользователя в социальной сети (social networking contact) или другое изображение, где этот человек уже идентифицирован.

    Claim 7 (Зависимый от 1): Уточняет, что название также может включать тему (subject) идентифицированной календарной записи.

    Где и как применяется

    Изобретение применяется в системах хранения и управления цифровыми изображениями (например, Google Photos) и не является частью стандартной архитектуры публичного веб-поиска.

    Сбор данных (Data Acquisition)
    Система получает доступ к изображениям (например, загруженным пользователем) и их сырым метаданным.

    Индексирование и обработка (Indexing & Processing)
    Основное применение патента происходит на этом этапе:

    1. Извлечение признаков: Система извлекает метаданные (время, геолокация).
    2. Визуальный анализ: Применяются модели компьютерного зрения для извлечения Visible Features, распознавания объектов, лиц и достопримечательностей.
    3. Кластеризация: Изображения группируются с помощью алгоритмов кластеризации (например, k-means) на основе времени, места или визуального содержания.
    4. Контекстуализация и Наименование: Система запрашивает External Data (календари, базы знаний, социальные графы) для идентификации событий, мест и людей, связанных с кластером. Генерируется title.

    Входные данные:

    • Набор цифровых изображений пользователя.
    • Метаданные изображений (EXIF): Time Information, Geolocation Information.
    • External Data: Календарь пользователя, электронная почта, контакты в социальных сетях (требует разрешения пользователя), публичные базы данных географических объектов и событий, репозитории индексированных характеристик.

    Выходные данные:

    • Организованные группы изображений (Альбомы).
    • Описательные названия (Titles) для этих альбомов.

    На что влияет

    • Конкретные типы контента: Влияет исключительно на цифровые изображения (фотографии) в личной коллекции пользователя, особенно те, которые содержат богатые метаданные или распознаваемые визуальные элементы.
    • Взаимодействие с данными пользователя: Система активно взаимодействует с личными данными пользователя для обогащения контекста изображений.

    Когда применяется

    • Триггеры активации: Алгоритм применяется при обработке набора изображений, например, после их загрузки в систему хранения или в фоновом режиме.
    • Условия работы: Для успешной работы требуется наличие метаданных (время/место) в изображениях и/или доступ к релевантным External Data. Для доступа к личным данным требуется разрешение пользователя (как указано в Claim 6).
    • Особые случаи (Home Location): В патенте описывается механизм определения Home Location пользователя. Система может приоритизировать название на основе местоположения, когда пользователь находится вдали от дома (идентификация поездок).

    Пошаговый алгоритм

    Патент описывает несколько вариантов реализации. Ниже приведен обобщенный алгоритм.

    1. Получение изображений: Система получает доступ к набору изображений пользователя.
    2. Извлечение данных (Data Extraction):
      • Извлекаются метаданные: Geolocation Information и Time Information.
      • Извлекаются Visible Features из пиксельных данных с помощью Object recognition и Facial recognition.
    3. Идентификация Home Location (Опционально):
      • Анализируются географические кластеры всех изображений пользователя для определения его Home Location (например, по наибольшему скоплению фотографий или наибольшему числу временных кластеров).
    4. Группировка изображений (Clustering):
      • Изображения кластеризуются на основе одного или нескольких критериев: географическая близость, временная близость, наличие общих или семантически связанных Visible Features.
      • Может рассчитываться Relatedness Metric для оценки качества кластера.
    5. Идентификация контекста и Генерация названия (Titling): Для каждой группы система ищет контекст в External Data:
      • События (Events): Поиск событий в календаре пользователя или публичных базах данных, которые совпадают по времени и месту.
      • Места (Locations): Сопоставление геолокации с репозиторием географических объектов. Этот метод приоритезируется, если группа находится вдали от Home Location.
      • Люди (People): Сопоставление распознанных лиц с контактами в социальных сетях.
      • Концепции (Concepts): Определение общей концепции на основе semantic relatedness распознанных объектов.
    6. Формирование названия: Система выбирает наиболее релевантные дескрипторы и формирует итоговое название (например, «У Эйфелевой башни с Крисом и Самантой в Мае 2014»). Может использоваться машинное обучение (title selection model) для выбора названия.
    7. Сохранение: Группа изображений сохраняется как альбом с присвоенным названием.

    Какие данные и как использует

    Данные на входе

    Система использует следующие типы данных:

    • Мультимедиа факторы (Визуальные данные): Пиксельные данные изображений. Используются для извлечения Visible Features.
    • Технические факторы (Метаданные):
      • Time Information: Временные метки (дата и время) записи изображения.
      • Geolocation Information: Координаты места записи изображения.
    • Пользовательские факторы (Личные Внешние данные): Данные, используемые с разрешения пользователя:
      • Календарные данные пользователя (calendar data).
      • Электронные письма пользователя (electronic mail messages).
      • Контакты пользователя в социальных сетях (social networking contacts).
    • Публичные Внешние данные:
      • Публичные базы данных событий.
      • Репозитории географических объектов (repository of geographical feature information).
      • Репозитории изображений с индексированными характеристиками (indexed features) и текстовыми метками.

    Какие метрики используются и как они считаются

    • Алгоритмы кластеризации: Используются для группировки изображений. В патенте упоминается k-means clustering.
    • Relatedness Metric (Метрика связанности): Может рассчитываться алгоритмом кластеризации для оценки вероятности того, что изображения в группе действительно связаны.
    • Алгоритмы компьютерного зрения:
      • Object recognition: Используется для извлечения и сопоставления визуальных признаков (в описании патента упоминается метод SIFT Дэвида Лоу).
      • Facial recognition: Используется для идентификации людей.
    • Semantic Relatedness (Семантическая связанность): Используется для определения общей концепции на основе распознанных объектов.
    • Идентификация Home Location: Определяется как географическая область с наибольшим количеством изображений или временных кластеров.
    • Машинное обучение: Может использоваться для создания модели выбора названия (title selection model), которая обучается на принятии или отклонении названий пользователем.

    Выводы

    1. Патент не о публичном поиске: Патент описывает внутренние процессы организации личных фотографий (например, в Google Photos) и не дает прямых рекомендаций для SEO веб-сайтов.
    2. Понимание контекста без текста: Ключевой вывод — демонстрация способности Google определять глубокий контекст изображения (Кто, Что, Где, Когда), используя только метаданные (EXIF) и визуальный анализ, без опоры на окружающий текст или атрибут ALT.
    3. Важность метаданных (EXIF): Time Information и Geolocation Information являются критически важными входными данными для кластеризации и определения контекста.
    4. Продвинутый визуальный и семантический анализ: Система использует не только распознавание объектов, но и анализ semantic relatedness между ними для определения общей концепции или сцены (например, «Вечеринка»).
    5. Интеграция данных: Google эффективно интегрирует данные из разрозненных источников (фотографии, публичные базы знаний, личные данные пользователя) для интерпретации контента.

    Практика

    Best practices (это мы делаем)

    Хотя патент ориентирован на пользовательские приложения, он дает представление о возможностях Google по обработке изображений, что актуально для Image SEO.

    • Сохранение релевантных метаданных (EXIF): Для локального бизнеса критически важно сохранять точные Geolocation Information в фотографиях (офиса, объектов, выполненных работ). Патент подтверждает, что Google активно использует эти данные для понимания контекста и местоположения.
    • Фокус на визуальной ясности и качестве: Поскольку Google использует Visible Features для распознавания объектов, изображения должны быть четкими, а ключевые элементы — хорошо видны. Это облегчает работу алгоритмов Object recognition и повышает вероятность правильной интерпретации содержания.
    • Создание семантического визуального контекста: Убедитесь, что визуальная композиция изображения поддерживает тематику страницы. Если система может определять semantic relatedness объектов на фото, то релевантные объекты в кадре помогут точнее классифицировать изображение.

    Worst practices (это делать не надо)

    • Автоматическое удаление всех метаданных: Агрессивные скрипты оптимизации, полностью удаляющие данные EXIF, могут лишить изображение ценного контекста (геолокация и время), который Google умеет извлекать.
    • Использование абстрактных или нерелевантных стоковых фото: Изображения, не имеющие четких распознаваемых признаков, связанных с темой контента, не помогают Google определить семантический контекст страницы.
    • Игнорирование визуального качества: Использование размытых или зашумленных изображений затрудняет извлечение Visible Features и снижает вероятность правильной интерпретации контента.

    Стратегическое значение

    Стратегическое значение патента для SEO заключается в подтверждении того, что Google рассматривает изображения как самостоятельные носители информации. Способность Google кластеризовать изображения по событиям, местам и семантическим концепциям означает, что стратегия Image SEO должна фокусироваться на создании визуально ясного и контекстуально богатого контента. В долгосрочной перспективе это снижает зависимость поисковых систем от текстовых сигналов (alt-текст) при ранжировании изображений.

    Практические примеры

    Сценарий: Оптимизация изображений для локального бизнеса (например, ресторана)

    1. Действие: При фотографировании интерьера и блюд убедитесь, что на устройстве включена функция геолокации (GPS). Перед загрузкой на сайт проверьте, что в EXIF-данных сохранены корректные координаты ресторана.
    2. Обоснование (на основе патента): Google извлекает Geolocation Information и сопоставляет координаты с базой географических объектов. Это позволяет надежно связать изображение с сущностью ресторана и его локацией, что полезно для локального поиска.

    Сценарий: Оптимизация изображения для карточки товара (eCommerce)

    1. Действие: Разместить высококачественные фотографии продукта в реальном контексте использования (например, смартфон в руке, рядом с ноутбуком).
    2. Обоснование (на основе патента): Алгоритмы Object recognition распознают сам смартфон. Анализ semantic relatedness с другими объектами (рука, ноутбук) поможет системе точнее понять контекст использования и категорию товара, давая более сильные сигналы релевантности, чем фото на белом фоне.

    Вопросы и ответы

    Описывает ли этот патент, как ранжируются изображения в Google Image Search?

    Нет, патент не описывает алгоритмы ранжирования публичного поиска. Он фокусируется на методах автоматической организации личных изображений в группы (альбомы) и присвоения им названий на основе контекста. Это технология, применяемая в продуктах типа Google Photos.

    Какое значение этот патент имеет для SEO, если он не о ранжировании?

    Он важен для понимания технологических возможностей Google в области интерпретации изображений. Патент показывает, что Google может понять, что, где и когда изображено, используя только метаданные и визуальный анализ, без привязки к тексту на странице. Это подчеркивает важность оптимизации самих изображений и их метаданных для Image SEO.

    Нужно ли сохранять EXIF-данные (время и геолокацию) в изображениях на сайте?

    Да, это рекомендуется, особенно для локального бизнеса. Патент явно указывает, что Geolocation Information и Time Information являются ключевыми входными данными для понимания контекста изображения и его связи с местами и событиями.

    Как Google определяет концепцию изображения (например, «Вечеринка»)?

    Система использует анализ семантической связанности (semantic relatedness). Сначала она распознает отдельные объекты (например, «торт», «подарки», «украшения»). Затем она определяет, что эти объекты часто встречаются вместе и связаны с общей концепцией («Вечеринка»).

    Может ли Google использовать мой личный календарь или почту для SEO?

    Нет. Патент описывает использование личных данных (календарь, почта) только для организации личных фотографий пользователя и только с его разрешения (permission). Эти данные не используются для ранжирования в публичном веб-поиске.

    Что такое «Home Location» и зачем Google это определяет?

    Home Location — это предполагаемое место жительства пользователя, определяемое автоматически по месту, где сделано больше всего фотографий. Это используется для идентификации поездок: фотографии, сделанные вдали от дома, с большей вероятностью получат название по местоположению (например, «Поездка в Париж»).

    Как система использует распознавание лиц?

    В контексте патента система применяет facial recognition для идентификации людей на личных фотографиях. Затем она сопоставляет лица с контактами пользователя в социальных сетях или другими размеченными фотографиями, чтобы добавить имена людей в название альбома.

    Влияет ли этот патент на важность атрибута ALT для изображений?

    Патент демонстрирует продвинутые методы визуального анализа, которые снижают зависимость Google от текстовых описаний. Однако атрибут ALT остается критически важным для доступности (accessibility) и как четкий текстовый сигнал релевантности для поисковой системы.

    Что такое «Visible Features» с точки зрения SEO?

    Это любые объекты, которые Google может распознать на изображении: продукты, логотипы, люди, достопримечательности. Чем больше релевантных признаков система распознает с помощью алгоритмов Object recognition, тем точнее она определит тематику изображения.

    Как обеспечить, чтобы Google правильно интерпретировал объекты на моих изображениях?

    Используйте высококачественные, четкие изображения, на которых ключевые объекты хорошо видны и однозначны. Это облегчает извлечение Visible Features и их правильное сопоставление с известными объектами в базе знаний Google.

    Навигация
    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх
    Telegram
    © 2025 SEO HARDCORE

    Type above and press Enter to search. Press Esc to cancel.