SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google индексирует реальный мир через носимые устройства для создания персональной поисковой истории (Lifelogging)

METHOD AND APPARATUS FOR ENABLING A SEARCHABLE HISTORY OF REAL-WORLD USER EXPERIENCES (Метод и устройство для создания доступной для поиска истории реального опыта пользователя)
  • US9087058B2
  • Google LLC
  • 2012-06-11
  • 2015-07-21
  • Индексация
  • Персонализация
  • Мультимедиа
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google патентует систему для записи и индексации реального опыта пользователя с помощью мобильных и носимых устройств (например, очков). Система автоматически захватывает аудио и видео, распознает объекты, лица и звуки, и создает персональную, доступную для поиска базу данных («историю опыта»). Это позволяет пользователю искать информацию о том, что он видел или слышал.

Описание

Какую проблему решает

Патент решает проблему разрыва между информацией, доступной через стандартный веб-поиск, и личным опытом пользователя в физическом мире. Традиционный поиск возвращает публичный контент, часто созданный другими людьми. Цель изобретения — создать механизм для автоматической индексации того, что пользователь видел и слышал ("лайфлоггинг"), и сделать этот персональный опыт доступным для поиска.

Что запатентовано

Запатентована система, которая использует мобильные и носимые устройства (например, очки дополненной реальности) для захвата медиаданных (аудио и видео) из окружения пользователя. Серверная инфраструктура обрабатывает эти данные, используя процессы распознавания (лиц, объектов, звуков). Распознанные элементы сохраняются в персональной, доступной для поиска базе данных, называемой history of real-world experiences.

Как это работает

Система работает в несколько этапов:

  • Сбор данных: Мобильное устройство захватывает media data (аудио/видео) и sensor data (локация, время).
  • Активация: Захват регулируется предпочтениями пользователя и может быть непрерывным, периодическим или активироваться триггерами (например, нахождение в определенном или "популярном" месте).
  • Обработка и Распознавание: Данные отправляются на сервер (Audio/Visual Based Search System), который выполняет распознавание изображений и аудио для идентификации сущностей.
  • Индексация: Успешно распознанные элементы индексируются в персональной истории пользователя (Audio/Visual Based Search History).
  • Поиск: Пользователь может выполнять запросы (текстовые или голосовые) для поиска по этой личной истории (например, "Кого я встретил вчера?").

Актуальность для SEO

Высокая. Хотя конкретное применение в виде непрерывного лайфлоггинга через устройства типа Google Glass не стало массовым, базовые технологии, описанные в патенте (визуальное и аудио распознавание, индексация реального мира, контекстуальный поиск), крайне актуальны. Они являются фундаментом для современных продуктов, таких как Google Lens, Google Assistant и систем распознавания контента в Google Photos.

Важность для SEO

Низкое прямое влияние (3/10). Патент не описывает алгоритмы ранжирования веб-сайтов в публичном индексе Google. Он фокусируется на создании отдельного, персонального индекса физического мира. Однако он имеет высокое стратегическое значение, так как демонстрирует возможности Google в распознавании сущностей (объектов, людей, мест) из неструктурированных мультимедийных данных. Это критически важно для понимания и оптимизации под Визуальный Поиск и Local SEO.

Детальный разбор

Термины и определения

Audio/Visual Based Search History (История аудиовизуального поиска)
Персонализированная база данных или индекс на сервере, хранящий обработанную историю реального опыта пользователя.
Audio/Visual Based Search System (Система аудиовизуального поиска)
Серверная инфраструктура, которая получает медиаданные, выполняет процессы распознавания и управляет историей поиска.
History of real-world experiences (История реального опыта)
Доступный для поиска индекс того, что пользователь видел и слышал в реальном мире.
Media Capture Preferences (Предпочтения захвата медиа)
Настройки пользователя, определяющие, когда и как устройство должно захватывать данные (например, непрерывно, периодически, на основе местоположения).
Media Data (Медиаданные)
Захваченные устройством данные: цифровые изображения, видео и аудио.
Mobile computing device (Мобильное вычислительное устройство)
Устройство для сбора данных. В патенте особо выделяются носимые устройства, такие как очки с дисплеем (wearable computing device with a head mounted display).
Popular Location (Популярное место)
Триггер для автоматического захвата данных. Определяется как место, где медиаданные захватило пороговое количество других пользователей.
Recognition Processes (Процессы распознавания)
Алгоритмы на сервере для идентификации контента в медиаданных (распознавание лиц, объектов, песен, речи).
Sensor Data (Сенсорные данные)
Данные с датчиков устройства, сопровождающие медиаданные (например, местоположение, время).

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает основной метод работы с точки зрения мобильного устройства.

  1. Получение настроек (settings) на мобильном устройстве, определяющих, когда захватывать медиаданные.
  2. Инициация захвата медиаданных на основе этих настроек И реальных условий (real-world conditions).
  3. Передача захваченных данных на сервер (который выполняет распознавание и добавляет данные в history of real-world experiences при обнаружении совпадения).
  4. Передача запроса пользователя на сервер для поиска по этой истории.
  5. Получение релевантных результатов из истории.

Ключевым элементом Claim 1 является специфическое условие для автоматического захвата: инициация захвата, когда текущее местоположение устройства находится вблизи popular location. Popular location определяется как место, где количество других пользователей, захвативших медиаданные, превышает пороговое значение. Это механизм автоматизированного сбора данных на основе социального контекста.

Claim 21 (Независимый пункт): Описывает процесс с точки зрения серверной системы.

  1. Получение медиаданных от мобильного устройства, захваченных на основе настроек и условий (включая условие popular location).
  2. Выполнение одного или нескольких recognition processes.
  3. Добавление данных в history of real-world experiences пользователя, если найдено совпадение.
  4. Получение запроса на поиск по этой истории.
  5. Передача релевантных результатов.

Зависимые пункты (например, Claims 3, 4): Уточняют, что запрос может быть голосовым (voice activated query). В этом случае система должна разобрать аудиоданные для поиска ключевых слов и сформировать текстовый запрос (text based keyword query).

Зависимые пункты (например, Claims 5): Уточняют альтернативные настройки захвата: инициирование захвата при приближении к конкретному заданному местоположению (specific location).

Где и как применяется

Этот патент описывает отдельную экосистему для персональной индексации реальности, которая напрямую не интегрируется в основную архитектуру веб-поиска Google, но использует схожие базовые технологии распознавания.

CRAWLING – Сканирование и Сбор данных
В данном контексте "сканирование" — это сбор данных из физического мира. Мобильное устройство пользователя выступает в роли краулера, собирая media data и sensor data.

INDEXING – Индексирование и извлечение признаков
Серверная система получает сырые данные. Происходит извлечение признаков и запуск Recognition Processes для идентификации сущностей (людей, объектов, звуков). Успешно распознанные данные сохраняются в персональном индексе (Audio/Visual Based Search History).

QUNDERSTANDING – Понимание Запросов
Система принимает запросы пользователя (текстовые или голосовые), предназначенные для поиска по персональной истории. Голосовые запросы парсятся для извлечения ключевых слов.

RANKING – Ранжирование
Поиск выполняется исключительно по персональному индексу пользователя (или группы пользователей) для нахождения релевантных записей из его прошлого опыта.

Входные данные:

  • Media data (аудио, видео, фото).
  • Sensor data (локация, время).
  • Настройки пользователя (preferences).
  • Запрос пользователя.

Выходные данные:

  • Индексированная запись в history of real-world experiences.
  • Результаты поиска по этой истории (например, миниатюры, отображение на карте или временной шкале).

На что влияет

  • Типы контента: Влияет на любой контент, который может быть зафиксирован визуально или аудиально в реальном мире: объекты, искусство, архитектура, товары, лица людей, музыка, разговоры.
  • Специфические запросы: Позволяет отвечать на запросы, связанные с личным опытом (например, "Какие картины я видел в Париже?", "Какая музыка играла на вечеринке?").
  • Влияние на веб-поиск: Не влияет на ранжирование веб-документов в основном индексе Google.

Когда применяется

Алгоритм захвата данных применяется в соответствии с настройками пользователя (Media Capture Preferences) и текущими условиями.

Триггеры активации:

  • Ручной: Пользователь сам инициирует захват.
  • Временной: Непрерывная запись или запись через заданные интервалы времени.
  • Географический: Активация при нахождении в конкретном заданном месте (specific location).
  • Социальный (Popular Location): Автоматическая активация, если устройство находится в Popular Location (месте, где многие другие пользователи вели запись).

Исключения: Система может изменять режим захвата данных в зависимости от состояния батареи мобильного устройства.

Пошаговый алгоритм

Процесс А: Сбор и Индексация Опыта

  1. Мониторинг условий: Мобильное устройство постоянно анализирует данные датчиков (местоположение, время) и проверяет, удовлетворены ли условия для захвата медиа согласно настройкам.
  2. Захват медиаданных: Если условия выполнены (например, устройство находится в популярном месте), устройство захватывает аудиовизуальные данные и данные сенсоров.
  3. Передача данных: Захваченные данные передаются на серверную систему.
  4. Распознавание: Сервер выполняет процессы распознавания (сопоставление изображений, распознавание лиц, распознавание аудио) на полученных данных.
  5. Принятие решения: Система определяет, является ли распознавание положительным (найдено ли совпадение).
  6. Хранение (Индексация): Если распознавание положительное, результаты, идентификатор пользователя и данные датчиков сохраняются в Audio/Visual Based Search History.

Процесс Б: Поиск по Истории Опыта

  1. Получение запроса: Пользователь отправляет запрос (текстовый или голосовой) для поиска по своей истории.
  2. Обработка запроса: Система обрабатывает запрос (включая парсинг голоса в ключевые слова, если необходимо).
  3. Поиск по истории: Система выполняет поиск в Audio/Visual Based Search History соответствующего пользователя (или группы авторизованных пользователей).
  4. Отображение результатов: Результаты передаются обратно клиенту и отображаются пользователю.

Какие данные и как использует

Данные на входе

  • Мультимедиа факторы: Цифровые изображения (фотографии, видеопоток) и цифровые аудиоданные (сэмплы, аудиопоток). Это основной источник данных для индексации опыта.
  • Географические факторы: Данные о местоположении. Используются как триггер для захвата данных (в конкретных или популярных местах) и как метаданные для индексации контекста события.
  • Временные факторы: Временные метки. Используются как метаданные для индексации контекста события и поиска по временным рамкам.
  • Пользовательские факторы: Идентификатор пользователя; Media Capture Preferences (настройки условий захвата); Данные авторизации (разрешения на доступ к истории для других пользователей).

Какие метрики используются и как они считаются

  • Popular Location Threshold (Порог популярного места): Ключевая метрика для автоматического триггера. Определяет минимальное количество других пользователей, которые должны были захватить медиаданные в определенном месте, чтобы это место считалось Popular Location.
  • Recognition Match (Совпадение при распознавании): Метрика успешности Recognition Processes. Данные добавляются в историю только при условии положительного распознавания (find a match). Конкретные алгоритмы распознавания в патенте не детализированы.
  • Ключевые слова из голосовых запросов: Используются методы NLP для парсинга голосовых запросов и извлечения ключевых слов для поиска по истории.

Выводы

  1. Персональный индекс реальности (Lifelogging): Патент описывает не систему веб-поиска, а инфраструктуру для создания персонального, доступного для поиска индекса физического опыта пользователя с помощью носимых устройств.
  2. Демонстрация технологий распознавания сущностей: Изобретение подтверждает возможности Google в области распознавания реального мира (визуального и аудио) для идентификации и индексации сущностей (объектов, людей, мест). Эти технологии лежат в основе мультимодального поиска.
  3. Автоматизированный сбор данных на основе контекста: Детализированы механизмы автоматического сбора данных, активируемые контекстом (время, местоположение).
  4. Социальные триггеры сбора данных: Вводится концепция Popular Location. Система может автоматически активировать запись, если обнаруживает, что находится в месте, которое было интересно значительному числу других пользователей.
  5. Отделение от веб-поиска: Описанная система функционирует отдельно от публичного веб-индекса. Прямых рекомендаций для ранжирования сайтов нет, но есть стратегические выводы.

Практика

Практическое применение в SEO

Этот патент имеет низкое прямое влияние на традиционное SEO, так как описывает создание персонального индекса. Однако для Principal SEO Strategist он имеет высокое стратегическое значение, так как демонстрирует передовые возможности Google в распознавании сущностей в реальном мире. Это напрямую связано с оптимизацией под Визуальный Поиск (Google Lens) и Local SEO.

Best practices (это мы делаем)

  • Оптимизация под визуальный поиск: Технологии распознавания объектов (Recognition Processes), описанные в патенте, используются Google повсеместно. Используйте высококачественные, четкие и уникальные изображения продуктов, логотипов и физических мест. Это увеличивает вероятность корректного распознавания объекта системами Google (например, в Google Lens или Image Search).
  • Усиление Local SEO через визуализацию: Патент подтверждает способность Google идентифицировать физические места на основе визуальных данных. Для локального бизнеса критически важно обеспечить полное и визуально богатое присутствие в Google Business Profile (фото экстерьера, интерьера, вывесок), чтобы облегчить распознавание локации.
  • Entity-First Optimization: Сосредоточьтесь на том, чтобы ваш бренд, продукты и локации были четко определенными сущностями. Чем лучше Google понимает сущность, тем легче его системам распознавания идентифицировать её в любом контексте – будь то текст или изображение из реального мира.

Worst practices (это делать не надо)

  • Использование генерических или некачественных изображений: Применение стоковых фотографий или размытых изображений снижает эффективность визуального распознавания и усложняет идентификацию ваших продуктов или локаций системами Google.
  • Игнорирование мультимодального поиска: Стратегии, основанные только на тексте, упускают возможности, предоставляемые развитием технологий распознавания. Поисковый ландшафт смещается в сторону интеграции визуального и текстового контента.

Стратегическое значение

Патент подтверждает долгосрочную стратегию Google на глубокое понимание мира через мультимодальные данные (зрение и слух), выходя за рамки текста. Для SEO это означает необходимость перехода от оптимизации ключевых слов к оптимизации сущностей и их визуального представления. Развитие продуктов типа Google Lens является прямым следствием инвестиций в эти технологии распознавания. Поиск становится все более визуальным и контекстуальным.

Практические примеры

Сценарий: Оптимизация физического магазина для лучшего распознавания

  1. Задача: Улучшить идентификацию магазина системами визуального распознавания Google (используемыми в Google Lens и потенциально в системах, описанных в патенте).
  2. Действие: Разместить на сайте и в Google Business Profile высококачественные, четкие фотографии экстерьера, фокусируясь на уникальных архитектурных элементах и вывеске. Убедиться, что логотип хорошо виден.
  3. Ожидаемый результат: Системы распознавания Google смогут точнее идентифицировать магазин по его внешнему виду. Это улучшает видимость при визуальном поиске и укрепляет связь между физической локацией (сущностью) и её цифровым представлением.

Вопросы и ответы

Описывает ли этот патент технологию Google Glass?

Да, патент напрямую связан с такими технологиями. В тексте явно упоминаются носимые вычислительные устройства с головным дисплеем (wearable computing device with a head mounted display), а схемы (FIG. 8, 9) изображают очки. Система предназначена для захвата аудио и видео от первого лица для создания истории опыта.

Как этот патент влияет на Google Lens или Визуальный Поиск?

Патент описывает базовые Recognition Processes для распознавания объектов из медиаданных. Хотя он фокусируется на персональном индексе, эти же технологии распознавания используются в Google Lens и Google Images. Понимание этого патента подчеркивает важность оптимизации изображений для четкого распознавания объектов и локаций.

Означает ли это, что Google постоянно записывает все, что я вижу и слышу?

Патент описывает такую техническую возможность, но подчеркивает, что система работает на основе настроек пользователя (Media Capture Preferences). Пользователь может настроить, когда вести запись: непрерывно, периодически, только в определенных местах или только по ручной команде.

Что такое триггер "Popular Location" (Популярное место)?

Это механизм автоматической активации записи. Устройство начнет запись, когда определит, что находится в месте, где значительное количество (превышающее порог) других пользователей также захватывало медиаданные. Это социальный сигнал, указывающий на потенциальную значимость локации.

Какое значение этот патент имеет для Local SEO?

Он подтверждает возможности Google по распознаванию физических локаций (магазинов, ресторанов) на основе визуальных данных. Это подчеркивает важность наличия качественных и четких фотографий экстерьера и интерьера бизнеса в Google Business Profile и на сайте, чтобы облегчить системам Google идентификацию вашей локации.

Влияет ли этот патент на ранжирование моего сайта в Google Поиске?

Нет, этот патент не влияет напрямую на ранжирование веб-сайтов. Он описывает создание и поиск по отдельному, персональному индексу реального опыта пользователя (history of real-world experiences). Он не связан с индексацией и ранжированием веб-страниц.

Как система распознает объекты и людей?

Патент не детализирует алгоритмы, но описывает процесс. Клиентское устройство передает медиаданные на сервер. Серверная система выполняет Recognition Processes, сравнивая полученные данные с существующими базами данных изображений, лиц и аудио для поиска совпадений.

Можно ли искать по истории другого человека?

Да, патент предусматривает такую возможность. Пользователь может авторизовать доступ к своей истории для других пользователей (например, друзей, коллег). Также упоминается возможность создания агрегированных историй для групп пользователей (например, сотрудников службы безопасности).

Как обрабатываются голосовые запросы к истории?

Пользователь может задать голосовой запрос (voice activated query). Система принимает аудио, парсит его для извлечения ключевых слов и формирует текстовый запрос. Этот текстовый запрос затем используется для поиска по индексированной истории на сервере.

Какие типы данных сохраняются в "Истории реального опыта"?

В истории сохраняются результаты распознавания медиаданных (метаданные о том, кто или что было идентифицировано). Эти записи также сопровождаются контекстными данными, полученными с сенсоров устройства, в первую очередь, временем и местоположением события.

Похожие патенты

Как Google использует распознавание объектов (например, в Google Lens) для проактивного поиска в персональных данных пользователя
Патент описывает механизм персонализированного поиска. Google (через Assistant или Lens) сохраняет факты, связанные с типами объектов, на основе ввода пользователя. Когда система распознает объект этого типа в изображении (например, через камеру), она автоматически инициирует поиск в личном корпусе данных пользователя и проактивно предлагает сохраненную информацию. Это технология, основанная на визуальном контексте.
  • US10691747B2
  • 2020-06-23
  • Персонализация

  • Мультимедиа

  • Семантика и интент

Как Google использует историю физических перемещений пользователя для фильтрации и персонализации результатов поиска
Google может собирать и хранить историю физических перемещений пользователя (Location History). Патент описывает интерфейс, позволяющий пользователю осознанно включать свои прошлые местоположения (например, «места, где я был на прошлой неделе») в качестве фильтра для нового поискового запроса, чтобы сделать результаты более релевантными личному опыту.
  • US8874594B2
  • 2014-10-28
  • Персонализация

  • Поведенческие сигналы

  • Local SEO

Как Google использует личную историю активности пользователя (поиск, email, локации) для идентификации входящих звонков на смартфоне
Google патентует технологию для смартфонов, которая помогает распознать неизвестные номера. Система анализирует личную историю пользователя (поисковые запросы, посещенные сайты, email, местоположения) и показывает визуальный контекст, где этот номер встречался ранее (например, скриншот результатов поиска или email), чтобы помочь пользователю вспомнить абонента.
  • US9215315B2
  • 2015-12-15
  • Персонализация

  • Поведенческие сигналы

Как Google использует жесты рук (например, "щипок") для запуска визуального поиска на носимых устройствах
Патент описывает интерфейс для носимых устройств (например, AR-очков), позволяющий инициировать визуальный поиск с помощью жеста. Система распознает, когда пользователь сначала очерчивает объект пальцами, а затем перекрывает (окклюдирует) его. Это действие интерпретируется как команда для идентификации объекта и запуска поиска информации о нем.
  • US9052804B1
  • 2015-06-09
  • Мультимедиа

Как Google отслеживает, анализирует и использует историю поведения пользователя для персонализации поиска и визуализации активности
Патент Google описывает инфраструктуру для сбора и анализа истории действий пользователя (запросы, клики по органике и рекламе, просмотры страниц). Система использует эти данные, включая метрики вовлеченности вроде «stay-time», для определения «предпочитаемых местоположений» и персонализации выдачи. Также описан метод графической визуализации объема этой активности.
  • US7694212B2
  • 2010-04-06
  • Персонализация

  • Поведенческие сигналы

  • SERP

Популярные патенты

Как Google интерпретирует последовательные запросы для автоматического уточнения поискового намерения пользователя
Google использует механизм для понимания контекста сессии, анализируя последовательные запросы (например, Q1: [рестораны в Москве], затем Q2: [итальянские]). Система автоматически объединяет их в уточненный запрос (Q3: [итальянские рестораны в Москве]), основываясь на исторических данных о том, как пользователи обычно уточняют запросы. Это позволяет системе лучше понимать намерение пользователя в диалоговом режиме.
  • US9116952B1
  • 2015-08-25
  • Семантика и интент

  • Поведенческие сигналы

Как Google ранжирует сущности (например, людей с одинаковыми именами) с помощью кластеризации, контекстной авторитетности и персонализации
Google использует систему двухуровневого ранжирования для обработки неоднозначных запросов (например, имен людей). Сначала ресурсы группируются в кластеры, представляющие разные сущности. Ресурсы внутри кластера ранжируются на основе их качества и авторитетности внутри этого кластера. Затем сами кластеры ранжируются с учетом релевантности запросу и сильной персонализации (социальные связи и местоположение пользователя).
  • US8645393B1
  • 2014-02-04
  • Персонализация

  • Семантика и интент

  • SERP

Как Google использует временной распад и анализ трендов кликов для корректировки ранжирования и борьбы со стагнацией выдачи
Google применяет механизмы для предотвращения «залипания» устаревших результатов в топе выдачи. Система анализирует возраст пользовательских кликов и снижает вес старых данных (временной распад), отдавая приоритет свежим сигналам. Кроме того, система выявляет документы с ускоряющимся трендом кликов по сравнению с фоном и повышает их в выдаче, улучшая актуальность результатов.
  • US9092510B1
  • 2015-07-28
  • Свежесть контента

  • Поведенческие сигналы

  • SERP

Как Google использует личную историю поиска и профиль интересов для персонализации подсказок Autocomplete
Google персонализирует поисковые подсказки (Autocomplete), используя профиль интересов пользователя, созданный на основе его прошлых запросов и кликов. Система сравнивает тематику потенциальных подсказок с интересами пользователя и повышает в списке те варианты, которые соответствуют его предпочтениям, с учетом актуальности этих интересов.
  • US20140108445A1
  • 2014-04-17
  • Персонализация

  • Поведенческие сигналы

  • Семантика и интент

Как Google использует контекст и анализ офлайн-поведения (Read Ranking) для соединения физических документов с цифровыми копиями
Система идентифицирует цифровой контент по сканированному фрагменту из физического мира, используя не только текст, но и обширный контекст (время, местоположение, историю пользователя). Патент также вводит концепцию «Read Ranking» — отслеживание популярности физических документов на основе того, что люди сканируют, как потенциальный сигнал ранжирования.
  • US20110295842A1
  • 2011-12-01
  • Поведенческие сигналы

  • Персонализация

  • Семантика и интент

Как Google использует клики по изображениям для определения схожести запросов и картинок (Поведенческая схожесть)
Google анализирует поведение пользователей в поиске по картинкам, чтобы определить схожесть двух запросов (или двух изображений). Если пользователи часто кликают на одни и те же изображения в ответ на разные запросы, эти запросы считаются похожими. Этот механизм (Коллаборативная фильтрация) позволяет находить связи независимо от языка или типа запроса (текст/изображение) и используется для генерации рекомендаций.
  • US8280881B1
  • 2012-10-02
  • Поведенческие сигналы

  • Семантика и интент

  • Мультимедиа

Как Google динамически фильтрует и изменяет подсказки Autocomplete в реальном времени при вводе навигационного запроса
Google использует систему для оптимизации функции автозаполнения (Autocomplete). При вводе частичного запроса система определяет широкий набор потенциальных навигационных ссылок (Superset) и фильтрует его до узкого подмножества (Subset) на основе сигналов, таких как история поиска, популярность и тип документа. Интерфейс может динамически изменять отображаемые подсказки, если пользователь делает паузу при вводе.
  • US9454621B2
  • 2016-09-27
  • Семантика и интент

  • SERP

  • Поведенческие сигналы

Как Google рассчитывает «VisualRank» для изображений и медиафайлов, используя виртуальные ссылки на основе схожести и поведения пользователей
Google использует алгоритм (концептуально называемый VisualRank) для ранжирования изображений и других медиафайлов путем создания «виртуальных ссылок» между ними. Эти ссылки основаны на визуальной схожести контента, данных о кликах пользователей и контексте размещения (URL analysis). Это позволяет оценить качество и авторитетность медиафайлов даже без явных гиперссылок, при этом система активно избегает показа слишком похожих (дублирующихся) результатов.
  • US8732187B1
  • 2014-05-20
  • Ссылки

  • Мультимедиа

  • Поведенческие сигналы

Как Google автоматически добавляет текст существующих объявлений к сайтлинкам (Sitelinks) для повышения CTR
Google использует систему для автоматического улучшения сайтлинков в рекламных объявлениях. Система анализирует существующие текстовые объявления (креативы) рекламодателя и определяет их конечные целевые страницы, игнорируя параметры отслеживания. Затем она сопоставляет их с URL сайтлинков и добавляет наиболее релевантный и эффективный текст креатива к сайтлинку для повышения кликабельности (CTR).
  • US10650066B2
  • 2020-05-12
  • Ссылки

  • SERP

Как Google вычисляет тематический авторитет автора (Author Rank) на основе его вклада в контент
Google патентует систему для количественной оценки экспертности авторов по конкретным темам. Система анализирует документы, определяет их тематику (Topic) и вес этой тематики (Weight), а затем учитывает долю вклада (Authorship Percentage) каждого автора в раскрытие этой темы. На основе этих данных формируется кумулятивный «Сигнал Авторитета» (Authority Signature) автора, позволяющий идентифицировать экспертов в различных областях.
  • US8458196B1
  • 2013-06-04
  • EEAT и качество

  • Семантика и интент

seohardcore