Close Menu
    Telegram
    SEO HARDCORE
    • Разборы патентов
      • Патенты Google
      • Патенты Яндекс
    • Скоро
      SEO инструменты
    • Скоро
      SEO аналитика
    SEO HARDCORE
    Разборы патентов • Патенты Google

    Как Google индексирует реальный мир через носимые устройства для создания персональной поисковой истории (Lifelogging)

    METHOD AND APPARATUS FOR ENABLING A SEARCHABLE HISTORY OF REAL-WORLD USER EXPERIENCES (Метод и устройство для создания доступной для поиска истории реального опыта пользователя)
    • US9087058B2
    • Google LLC
    • 2015-07-21
    • 2012-06-11
    2012 Мультимедиа Патенты Google Персонализация

    Google патентует систему для записи и индексации реального опыта пользователя с помощью мобильных и носимых устройств (например, очков). Система автоматически захватывает аудио и видео, распознает объекты, лица и звуки, и создает персональную, доступную для поиска базу данных («историю опыта»). Это позволяет пользователю искать информацию о том, что он видел или слышал.

    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх

    Описание

    Какую задачу решает

    Патент решает проблему разрыва между информацией, доступной через стандартный веб-поиск, и личным опытом пользователя в физическом мире. Традиционный поиск возвращает публичный контент, часто созданный другими людьми. Цель изобретения — создать механизм для автоматической индексации того, что пользователь видел и слышал («лайфлоггинг»), и сделать этот персональный опыт доступным для поиска.

    Что запатентовано

    Запатентована система, которая использует мобильные и носимые устройства (например, очки дополненной реальности) для захвата медиаданных (аудио и видео) из окружения пользователя. Серверная инфраструктура обрабатывает эти данные, используя процессы распознавания (лиц, объектов, звуков). Распознанные элементы сохраняются в персональной, доступной для поиска базе данных, называемой history of real-world experiences.

    Как это работает

    Система работает в несколько этапов:

    • Сбор данных: Мобильное устройство захватывает media data (аудио/видео) и sensor data (локация, время).
    • Активация: Захват регулируется предпочтениями пользователя и может быть непрерывным, периодическим или активироваться триггерами (например, нахождение в определенном или «популярном» месте).
    • Обработка и Распознавание: Данные отправляются на сервер (Audio/Visual Based Search System), который выполняет распознавание изображений и аудио для идентификации сущностей.
    • Индексация: Успешно распознанные элементы индексируются в персональной истории пользователя (Audio/Visual Based Search History).
    • Поиск: Пользователь может выполнять запросы (текстовые или голосовые) для поиска по этой личной истории (например, «Кого я встретил вчера?»).

    Актуальность для SEO

    Высокая. Хотя конкретное применение в виде непрерывного лайфлоггинга через устройства типа Google Glass не стало массовым, базовые технологии, описанные в патенте (визуальное и аудио распознавание, индексация реального мира, контекстуальный поиск), крайне актуальны. Они являются фундаментом для современных продуктов, таких как Google Lens, Google Assistant и систем распознавания контента в Google Photos.

    Важность для SEO

    Низкое прямое влияние (3/10). Патент не описывает алгоритмы ранжирования веб-сайтов в публичном индексе Google. Он фокусируется на создании отдельного, персонального индекса физического мира. Однако он имеет высокое стратегическое значение, так как демонстрирует возможности Google в распознавании сущностей (объектов, людей, мест) из неструктурированных мультимедийных данных. Это критически важно для понимания и оптимизации под Визуальный Поиск и Local SEO.

    Детальный разбор

    Термины и определения

    Audio/Visual Based Search History (История аудиовизуального поиска)
    Персонализированная база данных или индекс на сервере, хранящий обработанную историю реального опыта пользователя.
    Audio/Visual Based Search System (Система аудиовизуального поиска)
    Серверная инфраструктура, которая получает медиаданные, выполняет процессы распознавания и управляет историей поиска.
    History of real-world experiences (История реального опыта)
    Доступный для поиска индекс того, что пользователь видел и слышал в реальном мире.
    Media Capture Preferences (Предпочтения захвата медиа)
    Настройки пользователя, определяющие, когда и как устройство должно захватывать данные (например, непрерывно, периодически, на основе местоположения).
    Media Data (Медиаданные)
    Захваченные устройством данные: цифровые изображения, видео и аудио.
    Mobile computing device (Мобильное вычислительное устройство)
    Устройство для сбора данных. В патенте особо выделяются носимые устройства, такие как очки с дисплеем (wearable computing device with a head mounted display).
    Popular Location (Популярное место)
    Триггер для автоматического захвата данных. Определяется как место, где медиаданные захватило пороговое количество других пользователей.
    Recognition Processes (Процессы распознавания)
    Алгоритмы на сервере для идентификации контента в медиаданных (распознавание лиц, объектов, песен, речи).
    Sensor Data (Сенсорные данные)
    Данные с датчиков устройства, сопровождающие медиаданные (например, местоположение, время).

    Ключевые утверждения (Анализ Claims)

    Claim 1 (Независимый пункт): Описывает основной метод работы с точки зрения мобильного устройства.

    1. Получение настроек (settings) на мобильном устройстве, определяющих, когда захватывать медиаданные.
    2. Инициация захвата медиаданных на основе этих настроек И реальных условий (real-world conditions).
    3. Передача захваченных данных на сервер (который выполняет распознавание и добавляет данные в history of real-world experiences при обнаружении совпадения).
    4. Передача запроса пользователя на сервер для поиска по этой истории.
    5. Получение релевантных результатов из истории.

    Ключевым элементом Claim 1 является специфическое условие для автоматического захвата: инициация захвата, когда текущее местоположение устройства находится вблизи popular location. Popular location определяется как место, где количество других пользователей, захвативших медиаданные, превышает пороговое значение. Это механизм автоматизированного сбора данных на основе социального контекста.

    Claim 21 (Независимый пункт): Описывает процесс с точки зрения серверной системы.

    1. Получение медиаданных от мобильного устройства, захваченных на основе настроек и условий (включая условие popular location).
    2. Выполнение одного или нескольких recognition processes.
    3. Добавление данных в history of real-world experiences пользователя, если найдено совпадение.
    4. Получение запроса на поиск по этой истории.
    5. Передача релевантных результатов.

    Зависимые пункты (например, Claims 3, 4): Уточняют, что запрос может быть голосовым (voice activated query). В этом случае система должна разобрать аудиоданные для поиска ключевых слов и сформировать текстовый запрос (text based keyword query).

    Зависимые пункты (например, Claims 5): Уточняют альтернативные настройки захвата: инициирование захвата при приближении к конкретному заданному местоположению (specific location).

    Где и как применяется

    Этот патент описывает отдельную экосистему для персональной индексации реальности, которая напрямую не интегрируется в основную архитектуру веб-поиска Google, но использует схожие базовые технологии распознавания.

    CRAWLING – Сканирование и Сбор данных
    В данном контексте «сканирование» — это сбор данных из физического мира. Мобильное устройство пользователя выступает в роли краулера, собирая media data и sensor data.

    INDEXING – Индексирование и извлечение признаков
    Серверная система получает сырые данные. Происходит извлечение признаков и запуск Recognition Processes для идентификации сущностей (людей, объектов, звуков). Успешно распознанные данные сохраняются в персональном индексе (Audio/Visual Based Search History).

    QUNDERSTANDING – Понимание Запросов
    Система принимает запросы пользователя (текстовые или голосовые), предназначенные для поиска по персональной истории. Голосовые запросы парсятся для извлечения ключевых слов.

    RANKING – Ранжирование
    Поиск выполняется исключительно по персональному индексу пользователя (или группы пользователей) для нахождения релевантных записей из его прошлого опыта.

    Входные данные:

    • Media data (аудио, видео, фото).
    • Sensor data (локация, время).
    • Настройки пользователя (preferences).
    • Запрос пользователя.

    Выходные данные:

    • Индексированная запись в history of real-world experiences.
    • Результаты поиска по этой истории (например, миниатюры, отображение на карте или временной шкале).

    На что влияет

    • Типы контента: Влияет на любой контент, который может быть зафиксирован визуально или аудиально в реальном мире: объекты, искусство, архитектура, товары, лица людей, музыка, разговоры.
    • Специфические запросы: Позволяет отвечать на запросы, связанные с личным опытом (например, «Какие картины я видел в Париже?», «Какая музыка играла на вечеринке?»).
    • Влияние на веб-поиск: Не влияет на ранжирование веб-документов в основном индексе Google.

    Когда применяется

    Алгоритм захвата данных применяется в соответствии с настройками пользователя (Media Capture Preferences) и текущими условиями.

    Триггеры активации:

    • Ручной: Пользователь сам инициирует захват.
    • Временной: Непрерывная запись или запись через заданные интервалы времени.
    • Географический: Активация при нахождении в конкретном заданном месте (specific location).
    • Социальный (Popular Location): Автоматическая активация, если устройство находится в Popular Location (месте, где многие другие пользователи вели запись).

    Исключения: Система может изменять режим захвата данных в зависимости от состояния батареи мобильного устройства.

    Пошаговый алгоритм

    Процесс А: Сбор и Индексация Опыта

    1. Мониторинг условий: Мобильное устройство постоянно анализирует данные датчиков (местоположение, время) и проверяет, удовлетворены ли условия для захвата медиа согласно настройкам.
    2. Захват медиаданных: Если условия выполнены (например, устройство находится в популярном месте), устройство захватывает аудиовизуальные данные и данные сенсоров.
    3. Передача данных: Захваченные данные передаются на серверную систему.
    4. Распознавание: Сервер выполняет процессы распознавания (сопоставление изображений, распознавание лиц, распознавание аудио) на полученных данных.
    5. Принятие решения: Система определяет, является ли распознавание положительным (найдено ли совпадение).
    6. Хранение (Индексация): Если распознавание положительное, результаты, идентификатор пользователя и данные датчиков сохраняются в Audio/Visual Based Search History.

    Процесс Б: Поиск по Истории Опыта

    1. Получение запроса: Пользователь отправляет запрос (текстовый или голосовой) для поиска по своей истории.
    2. Обработка запроса: Система обрабатывает запрос (включая парсинг голоса в ключевые слова, если необходимо).
    3. Поиск по истории: Система выполняет поиск в Audio/Visual Based Search History соответствующего пользователя (или группы авторизованных пользователей).
    4. Отображение результатов: Результаты передаются обратно клиенту и отображаются пользователю.

    Какие данные и как использует

    Данные на входе

    • Мультимедиа факторы: Цифровые изображения (фотографии, видеопоток) и цифровые аудиоданные (сэмплы, аудиопоток). Это основной источник данных для индексации опыта.
    • Географические факторы: Данные о местоположении. Используются как триггер для захвата данных (в конкретных или популярных местах) и как метаданные для индексации контекста события.
    • Временные факторы: Временные метки. Используются как метаданные для индексации контекста события и поиска по временным рамкам.
    • Пользовательские факторы: Идентификатор пользователя; Media Capture Preferences (настройки условий захвата); Данные авторизации (разрешения на доступ к истории для других пользователей).

    Какие метрики используются и как они считаются

    • Popular Location Threshold (Порог популярного места): Ключевая метрика для автоматического триггера. Определяет минимальное количество других пользователей, которые должны были захватить медиаданные в определенном месте, чтобы это место считалось Popular Location.
    • Recognition Match (Совпадение при распознавании): Метрика успешности Recognition Processes. Данные добавляются в историю только при условии положительного распознавания (find a match). Конкретные алгоритмы распознавания в патенте не детализированы.
    • Ключевые слова из голосовых запросов: Используются методы NLP для парсинга голосовых запросов и извлечения ключевых слов для поиска по истории.

    Выводы

    1. Персональный индекс реальности (Lifelogging): Патент описывает не систему веб-поиска, а инфраструктуру для создания персонального, доступного для поиска индекса физического опыта пользователя с помощью носимых устройств.
    2. Демонстрация технологий распознавания сущностей: Изобретение подтверждает возможности Google в области распознавания реального мира (визуального и аудио) для идентификации и индексации сущностей (объектов, людей, мест). Эти технологии лежат в основе мультимодального поиска.
    3. Автоматизированный сбор данных на основе контекста: Детализированы механизмы автоматического сбора данных, активируемые контекстом (время, местоположение).
    4. Социальные триггеры сбора данных: Вводится концепция Popular Location. Система может автоматически активировать запись, если обнаруживает, что находится в месте, которое было интересно значительному числу других пользователей.
    5. Отделение от веб-поиска: Описанная система функционирует отдельно от публичного веб-индекса. Прямых рекомендаций для ранжирования сайтов нет, но есть стратегические выводы.

    Практика

    Практическое применение в SEO

    Этот патент имеет низкое прямое влияние на традиционное SEO, так как описывает создание персонального индекса. Однако для Principal SEO Strategist он имеет высокое стратегическое значение, так как демонстрирует передовые возможности Google в распознавании сущностей в реальном мире. Это напрямую связано с оптимизацией под Визуальный Поиск (Google Lens) и Local SEO.

    Best practices (это мы делаем)

    • Оптимизация под визуальный поиск: Технологии распознавания объектов (Recognition Processes), описанные в патенте, используются Google повсеместно. Используйте высококачественные, четкие и уникальные изображения продуктов, логотипов и физических мест. Это увеличивает вероятность корректного распознавания объекта системами Google (например, в Google Lens или Image Search).
    • Усиление Local SEO через визуализацию: Патент подтверждает способность Google идентифицировать физические места на основе визуальных данных. Для локального бизнеса критически важно обеспечить полное и визуально богатое присутствие в Google Business Profile (фото экстерьера, интерьера, вывесок), чтобы облегчить распознавание локации.
    • Entity-First Optimization: Сосредоточьтесь на том, чтобы ваш бренд, продукты и локации были четко определенными сущностями. Чем лучше Google понимает сущность, тем легче его системам распознавания идентифицировать ее в любом контексте – будь то текст или изображение из реального мира.

    Worst practices (это делать не надо)

    • Использование генерических или некачественных изображений: Применение стоковых фотографий или размытых изображений снижает эффективность визуального распознавания и усложняет идентификацию ваших продуктов или локаций системами Google.
    • Игнорирование мультимодального поиска: Стратегии, основанные только на тексте, упускают возможности, предоставляемые развитием технологий распознавания. Поисковый ландшафт смещается в сторону интеграции визуального и текстового контента.

    Стратегическое значение

    Патент подтверждает долгосрочную стратегию Google на глубокое понимание мира через мультимодальные данные (зрение и слух), выходя за рамки текста. Для SEO это означает необходимость перехода от оптимизации ключевых слов к оптимизации сущностей и их визуального представления. Развитие продуктов типа Google Lens является прямым следствием инвестиций в эти технологии распознавания. Поиск становится все более визуальным и контекстуальным.

    Практические примеры

    Сценарий: Оптимизация физического магазина для лучшего распознавания

    1. Задача: Улучшить идентификацию магазина системами визуального распознавания Google (используемыми в Google Lens и потенциально в системах, описанных в патенте).
    2. Действие: Разместить на сайте и в Google Business Profile высококачественные, четкие фотографии экстерьера, фокусируясь на уникальных архитектурных элементах и вывеске. Убедиться, что логотип хорошо виден.
    3. Ожидаемый результат: Системы распознавания Google смогут точнее идентифицировать магазин по его внешнему виду. Это улучшает видимость при визуальном поиске и укрепляет связь между физической локацией (сущностью) и ее цифровым представлением.

    Вопросы и ответы

    Описывает ли этот патент технологию Google Glass?

    Да, патент напрямую связан с такими технологиями. В тексте явно упоминаются носимые вычислительные устройства с головным дисплеем (wearable computing device with a head mounted display), а схемы (FIG. 8, 9) изображают очки. Система предназначена для захвата аудио и видео от первого лица для создания истории опыта.

    Как этот патент влияет на Google Lens или Визуальный Поиск?

    Патент описывает базовые Recognition Processes для распознавания объектов из медиаданных. Хотя он фокусируется на персональном индексе, эти же технологии распознавания используются в Google Lens и Google Images. Понимание этого патента подчеркивает важность оптимизации изображений для четкого распознавания объектов и локаций.

    Означает ли это, что Google постоянно записывает все, что я вижу и слышу?

    Патент описывает такую техническую возможность, но подчеркивает, что система работает на основе настроек пользователя (Media Capture Preferences). Пользователь может настроить, когда вести запись: непрерывно, периодически, только в определенных местах или только по ручной команде.

    Что такое триггер «Popular Location» (Популярное место)?

    Это механизм автоматической активации записи. Устройство начнет запись, когда определит, что находится в месте, где значительное количество (превышающее порог) других пользователей также захватывало медиаданные. Это социальный сигнал, указывающий на потенциальную значимость локации.

    Какое значение этот патент имеет для Local SEO?

    Он подтверждает возможности Google по распознаванию физических локаций (магазинов, ресторанов) на основе визуальных данных. Это подчеркивает важность наличия качественных и четких фотографий экстерьера и интерьера бизнеса в Google Business Profile и на сайте, чтобы облегчить системам Google идентификацию вашей локации.

    Влияет ли этот патент на ранжирование моего сайта в Google Поиске?

    Нет, этот патент не влияет напрямую на ранжирование веб-сайтов. Он описывает создание и поиск по отдельному, персональному индексу реального опыта пользователя (history of real-world experiences). Он не связан с индексацией и ранжированием веб-страниц.

    Как система распознает объекты и людей?

    Патент не детализирует алгоритмы, но описывает процесс. Клиентское устройство передает медиаданные на сервер. Серверная система выполняет Recognition Processes, сравнивая полученные данные с существующими базами данных изображений, лиц и аудио для поиска совпадений.

    Можно ли искать по истории другого человека?

    Да, патент предусматривает такую возможность. Пользователь может авторизовать доступ к своей истории для других пользователей (например, друзей, коллег). Также упоминается возможность создания агрегированных историй для групп пользователей (например, сотрудников службы безопасности).

    Как обрабатываются голосовые запросы к истории?

    Пользователь может задать голосовой запрос (voice activated query). Система принимает аудио, парсит его для извлечения ключевых слов и формирует текстовый запрос. Этот текстовый запрос затем используется для поиска по индексированной истории на сервере.

    Какие типы данных сохраняются в «Истории реального опыта»?

    В истории сохраняются результаты распознавания медиаданных (метаданные о том, кто или что было идентифицировано). Эти записи также сопровождаются контекстными данными, полученными с сенсоров устройства, в первую очередь, временем и местоположением события.

    Навигация
    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх
    Telegram
    © 2025 SEO HARDCORE

    Type above and press Enter to search. Press Esc to cancel.