SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google использует распознавание объектов (например, в Google Lens) для проактивного поиска в персональных данных пользователя

ASSOCIATION OF DATA ITEMS AND OBJECTS (Ассоциация элементов данных и объектов)
  • US10691747B2
  • Google LLC
  • 2017-12-15
  • 2020-06-23
  • Персонализация
  • Мультимедиа
  • Семантика и интент
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Патент описывает механизм персонализированного поиска. Google (через Assistant или Lens) сохраняет факты, связанные с типами объектов, на основе ввода пользователя. Когда система распознает объект этого типа в изображении (например, через камеру), она автоматически инициирует поиск в личном корпусе данных пользователя и проактивно предлагает сохраненную информацию. Это технология, основанная на визуальном контексте.

Описание

Какую проблему решает

Патент решает задачу контекстуального поиска в персональном корпусе данных пользователя (user-specific corpus). Цель — предоставить пользователю ранее сохраненную информацию (например, факт или напоминание) проактивно, в тот момент, когда связанный с ней объект появляется в поле зрения устройства (например, в камере). Система позволяет ассоциировать информацию с типом объекта без необходимости иметь изображение этого объекта в момент сохранения.

Что запатентовано

Запатентована система для ассоциации элементов данных (data items) с типами физических объектов и последующего поиска этих данных на основе визуального ввода. Система использует обработку естественного языка (NLP) для идентификации объектов и фактов из ввода пользователя (например, голосовой команды) и сохраняет эту связь в персональной базе данных. Позже система использует компьютерное зрение (Computer Vision) для распознавания объектов в изображении и автоматически генерирует поисковый запрос к этой персональной базе данных.

Как это работает

Система работает в два этапа:

  1. Сохранение (Ассоциация): Пользователь предоставляет ввод (например, «Мой код от велозамка 1234»). Ассистент обрабатывает ввод, идентифицирует тип объекта («велозамок») и элемент данных («1234»), и сохраняет эту ассоциацию в user-specific data storage.
  2. Поиск (Извлечение): Позже, когда пользователь смотрит на изображение (например, через камеру), система распознавания изображений идентифицирует «велозамок». Система автоматически генерирует запрос к персональному хранилищу. Найдя ассоциацию, система показывает уведомление (prompt). При взаимодействии с уведомлением отображается сохраненный факт («1234»).

Актуальность для SEO

Высокая. Описанные механизмы лежат в основе функций памяти Google Assistant и проактивного поиска в Google Lens. Интеграция компьютерного зрения и NLP для контекстного и персонализированного поиска является ключевым направлением развития поисковых технологий Google.

Важность для SEO

Влияние на традиционное SEO (ранжирование веб-сайтов) минимальное (3/10). Патент не описывает алгоритмы ранжирования веб-поиска, а фокусируется исключительно на поиске внутри персонального корпуса данных пользователя. Однако он имеет стратегическое значение для оптимизации под визуальный поиск (Visual Search Optimization). Патент подтверждает способность Google точно распознавать типы объектов (используя Object Labels) в изображениях, что критически важно для видимости контента в Google Lens и Google Images.

Детальный разбор

Термины и определения

Assistant (Ассистент)
Программное обеспечение (например, Google Assistant), которое обрабатывает ввод пользователя (голосовой или текстовый) с использованием NLP и ASR для определения команд. Используется для сохранения ассоциаций между объектами и данными.
Data Item (Элемент данных)
Любой фрагмент информации, связанный с объектом. Примеры: текст, аудио, видео, изображение или фактические данные (fact data), введенные пользователем.
Image Processor (Процессор изображений)
Система компьютерного зрения (например, нейронные сети), обученная распознавать объекты в изображениях.
Object (Объект)
Объект, изображенный в данных изображения. В контексте патента чаще всего относится к классу или типу объекта (type of physical object), например, «велозамок», «винная бутылка».
Object Label (Метка объекта)
Метка, генерируемая системой распознавания изображений или NLP для идентификации типа объекта. Используется как ключ для связи данных пользователя с визуальными объектами.
User-specific data storage / User corpus (Персональное хранилище данных / Корпус пользователя)
Хранилище данных, специфичное для учетной записи пользователя, содержащее метаданные, связывающие Object Labels с данными, указанными пользователем.
Prompt (Уведомление / Подсказка)
Визуальный или звуковой индикатор, информирующий пользователя о наличии доступных элементов данных, связанных с объектом на изображении.

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает полный цикл работы системы, состоящий из фазы сохранения информации и фазы ее извлечения.

Фаза Сохранения:

  1. Система получает ввод от пользователя.
  2. Ввод обрабатывается для определения given type of physical object (определенного типа физического объекта) и given fact data item (элемента фактических данных).
  3. Система сохраняет user-specific association (пользовательскую ассоциацию) между этим фактом и типом объекта в user-specific data storage.

Фаза Извлечения:

  1. Система получает данные изображения, отображаемого на устройстве.
  2. Выполняется обработка изображения для идентификации типа объекта, который соответствует сохраненному типу.
  3. Генерируется поисковый запрос на основе идентифицированного типа объекта. Ключевое условие: запрос генерируется автоматически (independent of a query input by the user).
  4. Система определяет, что сохраненная ассоциация релевантна этому запросу.
  5. Если ассоциация найдена: на дисплее генерируется подсказка (prompt).
  6. В ответ на выбор подсказки пользователем, система отображает сохраненный элемент данных.

Ядро изобретения — связь между обработкой ввода (NLP) для сохранения факта о типе объекта и последующей обработкой изображения (CV) для извлечения этого факта при распознавании объекта того же типа, причем поиск строго ограничен персональными данными.

Claim 6 (Зависимый): Уточняет структуру хранилища и генерацию запроса.

Хранилище данных содержит метаданные, связывающие Object Labels с данными пользователя. Генерация поискового запроса (в фазе извлечения) заключается в создании запроса, который указывает Object Labels распознанных объектов.

Claim 2 и 3 (Зависимые): Уточняют обработку нескольких объектов. Система может идентифицировать множество объектов и сгенерировать запрос для каждого. Для каждого объекта с найденными данными может быть показан отдельный визуальный индикатор (visual indicator).

Где и как применяется

Этот патент не описывает архитектуру публичного веб-поиска Google. Он описывает функциональность на уровне приложений, таких как Google Assistant и Google Lens. Это система Персонального Поиска (Personal Search).

INDEXING – Индексирование (Персональных данных)
На этом этапе происходит индексация личного корпуса пользователя. Когда пользователь вводит команду, система применяет NLP для извлечения типа объекта и элемента данных. Эта ассоциация индексируется и сохраняется в user-specific data storage с использованием Object Labels.

QUNDERSTANDING – Понимание Запросов (Визуальных и Языковых)
Система использует два типа понимания:

  • Языковое (NLP): Используется на этапе ассоциации для интерпретации команд пользователя.
  • Визуальное (Computer Vision): Используется на этапе извлечения. Image Processor анализирует изображение и идентифицирует объекты. Это визуальное распознавание действует как триггер для генерации автоматического запроса.

RANKING / RETRIEVAL (Персональных данных)
Система выполняет поиск в user-specific data storage, используя сгенерированный запрос (основанный на Object Labels), чтобы найти соответствующие элементы данных.

Входные данные:

  • Ввод пользователя (текст или речь) на этапе ассоциации.
  • Данные изображения (фото или видеопоток с камеры) на этапе извлечения.

Выходные данные:

  • Уведомление (prompt) о наличии связанной информации.
  • Отображение сохраненного Data Item.

На что влияет

  • Типы контента: Влияет на доступ к персональным данным пользователя: заметкам, фактам, напоминаниям, хранящимся в его аккаунте.
  • Специфические запросы: Влияет на обработку визуального ввода (изображений) как триггера для поиска информации. Запросы генерируются системой автоматически.
  • Ограничения: Работает только в среде пользователя (устройство, аккаунт) и ограничено данными, которые пользователь сохранил в своем персональном корпусе.

Когда применяется

  • Триггеры активации (Сохранение): Когда пользователь дает команду сохранить информацию, связанную с объектом (например, «Запомни, что...»).
  • Триггеры активации (Извлечение): Когда на дисплее устройства отображается изображение (активна камера/Google Lens) и система распознавания изображений идентифицирует объект, для которого в личном хранилище есть связанные данные.

Пошаговый алгоритм

Процесс А: Сохранение Ассоциации (на основе NLP)

  1. Получение ввода: Система получает ввод от пользователя (например, голосовую команду Ассистенту).
  2. Анализ ввода: Ассистент выполняет обработку естественного языка для идентификации типа объекта (например, «велозамок») и элемента данных (например, «1234»).
  3. Определение меток: Система определяет соответствующие Object Labels для идентифицированного типа объекта.
  4. Создание ассоциации: Система создает связь между элементом данных и Object Labels.
  5. Сохранение: Ассоциация сохраняется в user-specific data storage.

Процесс Б: Извлечение Данных (на основе Computer Vision)

  1. Получение изображения: Система получает данные изображения (например, с камеры).
  2. Обработка изображения: Image Processor анализирует изображение для идентификации объектов.
  3. Генерация меток: Для распознанных объектов генерируются Object Labels.
  4. Генерация автоматического запроса: Система генерирует поисковый запрос, используя эти Object Labels, независимо от действий пользователя.
  5. Поиск в персональном корпусе: Выполняется поиск в user-specific data storage по сгенерированному запросу.
  6. Идентификация данных: Определяется, есть ли сохраненные Data Items, релевантные запросу.
  7. Отображение подсказки: Если данные найдены, система генерирует проактивную подсказку (prompt) на экране вместе с изображением.
  8. Отображение результата: Если пользователь выбирает подсказку, система отображает связанный Data Item.

Какие данные и как использует

Данные на входе

Патент фокусируется на обработке персональных данных и визуальной/языковой информации. Он не использует традиционные SEO-факторы (ссылки, контент публичных страниц).

  • Контентные факторы (NLP): Текстовый или голосовой ввод пользователя. Используется для извлечения семантики, идентификации типов объектов и связанных с ними фактов на этапе сохранения.
  • Мультимедиа факторы (Computer Vision): Данные изображения (Image data). Используются для распознавания объектов и генерации Object Labels на этапе извлечения.
  • Пользовательские факторы: Вся система функционирует в контексте конкретного пользователя. Используется user-specific data storage, привязанное к учетной записи.

Какие метрики используются и как они считаются

Патент не детализирует конкретные метрики ранжирования, так как речь идет о поиске точных соответствий в ограниченном персональном корпусе.

  • Object Labels: Ключевая метрика для связи между фазами сохранения и извлечения. Генерируется системами NLP и Computer Vision.
  • Методы анализа текста (NLP): Используются для парсинга ввода пользователя, извлечения сущностей (типов объектов) и фактов.
  • Алгоритмы машинного обучения (Computer Vision): Используются в Image Processor для распознавания объектов в изображениях и присвоения им Object Labels.

Выводы

  1. Персонализированный поиск, а не веб-поиск: Патент описывает инфраструктуру для поиска в личных данных пользователя (заметки, напоминания). Он не имеет прямого отношения к алгоритмам ранжирования сайтов в органической выдаче Google.
  2. Интеграция NLP и Computer Vision: Система демонстрирует тесную интеграцию двух ключевых технологий ИИ. NLP используется для понимания того, что пользователь хочет сохранить, а Computer Vision — как триггер для извлечения этих данных в нужном контексте.
  3. Ассоциация на уровне типов объектов (Object Labels): Ключевая особенность — ассоциация сохраняется не с конкретным изображением, а с типом объекта (Object Label). Это позволяет системе распознать любой объект данного типа в будущем.
  4. Визуальный ввод как автоматический триггер запроса: Патент подтверждает использование визуальной информации как автоматического триггера для инициации поискового запроса без участия пользователя (основа работы Google Lens).
  5. Стратегическое значение для Визуального Поиска (Visual Search): Хотя патент фокусируется на персональных данных, используемая технология распознавания объектов (Image Processor) является той же инфраструктурой, которую Google применяет для анализа изображений в интернете. Понимание того, как Google идентифицирует и маркирует объекты, критически важно для оптимизации под Google Lens и Google Images.

Практика

Практическое применение в SEO

Патент не дает прямых рекомендаций для повышения рейтинга сайта в веб-поиске, так как описывает поиск в персональных данных. Однако, описанная технология распознавания объектов имеет стратегическое значение для оптимизации под Визуальный Поиск (Google Lens, Google Images).

Best practices (это мы делаем)

  • Оптимизация изображений для распознавания объектов: Обеспечьте высокое качество, четкость и хорошую освещенность изображений на сайте, особенно для товаров в e-commerce. Главный объект должен быть в фокусе и не перекрываться другими элементами. Это увеличивает вероятность того, что Image Processor Google корректно распознает объект и присвоит ему правильный Object Label.
  • Использование структурированных данных (Schema.org): Для страниц продуктов используйте разметку Product, включая свойство image. Это помогает поисковой системе связать распознанный объект на изображении с конкретной сущностью (товаром) и его атрибутами, что критично для видимости в Google Lens.
  • Создание контента, ориентированного на сущности (Entities): Патент показывает, как Google обрабатывает связи между объектами и информацией. Структурируйте контент вокруг ключевых сущностей. Это помогает системам NLP (подобным той, что используется в патенте) лучше понимать содержание вашего сайта.

Worst practices (это делать не надо)

  • Обфускация объектов на изображениях: Использование чрезмерных водяных знаков, текста или графических элементов поверх ключевых объектов (например, товаров) может помешать системе корректно распознать объект и сгенерировать Object Label.
  • Использование абстрактных или некачественных изображений: Если изображения не позволяют системам компьютерного зрения четко идентифицировать объекты, это снижает потенциал видимости в визуальном поиске.
  • Игнорирование визуального поиска (Google Lens): Рассматривать SEO только как оптимизацию под текстовые запросы. Патент подтверждает, что визуальный контекст становится все более важным способом доступа к информации.

Стратегическое значение

Патент подтверждает стратегический приоритет Google в развитии мультимодального (текст, голос, изображение) и контекстного поиска. Компьютерное зрение позволяет превратить любое изображение в поисковый запрос. Для SEO это означает необходимость рассматривать оптимизацию изображений как самостоятельное направление для привлечения трафика через Google Lens и Google Images. Видимость в поиске все больше зависит от способности Google распознавать и понимать объекты в визуальном контенте.

Практические примеры

Сценарий: Оптимизация карточки товара для Визуального Поиска (Google Lens)

Задача: Увеличить вероятность того, что при сканировании товара через Google Lens пользователь увидит ссылку на ваш магазин.

  1. Действие (Визуальная часть): Разместить на сайте высококачественные фотографии товара с разных ракурсов на нейтральном фоне. Главное изображение должно четко демонстрировать продукт.
  2. Обоснование (Патент): Это позволит Image Processor Google точно распознать объект и сгенерировать корректный Object Label (например, «Кроссовки Nike Air Max 270»).
  3. Действие (Техническая часть): Внедрить микроразметку Product с указанием SKU, бренда, названия, цены, наличия и ссылки на изображение.
  4. Обоснование (Практика): Это связывает распознанный Object Label с конкретной сущностью товара и вашим предложением.
  5. Ожидаемый результат: Когда пользователь использует Google Lens (активируя Image Processor), система распознает объект, инициирует поиск (в данном случае по веб-индексу, используя ту же технологию распознавания) и с высокой вероятностью покажет ваше предложение среди результатов.

Вопросы и ответы

Имеет ли этот патент отношение к ранжированию моего сайта в Google Поиске?

Нет, прямого отношения к ранжированию веб-сайтов этот патент не имеет. Он описывает технологию поиска исключительно внутри персонального корпуса данных пользователя (user-specific data storage), например, в заметках Google Assistant. Он не описывает, как Google оценивает или ранжирует контент в публичном интернете.

Какое значение этот патент имеет для SEO, если он не о ранжировании?

Значение заключается в понимании возможностей Google в области компьютерного зрения. Технология Image Processor, описанная в патенте, используется Google повсеместно, включая Google Lens и Google Images. Понимание того, как Google видит и маркирует объекты (Object Labels), помогает оптимизировать изображения для визуального поиска.

Что такое «Object Label» и почему это важно?

Object Label — это метка или идентификатор, который Google присваивает распознанному объекту на изображении (например, «велосипед», «смартфон Samsung Galaxy»). Это ключевой элемент, который связывает визуальные данные с семантической информацией. Для SEO важно, чтобы объекты на ваших изображениях получали корректные и достаточно специфичные метки.

Как я могу улучшить распознавание объектов на изображениях моего сайта?

Используйте высококачественные, четкие изображения, где основной объект находится в фокусе и не перекрыт посторонними элементами (например, водяными знаками). Дополняйте изображения точными атрибутами ALT и используйте структурированные данные (например, Schema.org/Product) для предоставления контекста.

Описывает ли патент работу Google Lens?

Да, патент описывает базовую механику, используемую в Google Lens: распознавание объекта через камеру (Image Processor) и автоматическая инициация поискового запроса. Хотя Google Lens обычно ищет информацию в интернете, а не только в личных данных (как описано в этом патенте), принцип действия идентичен.

Система сохраняет связь с конкретным изображением объекта?

Нет, это ключевая особенность. Система сохраняет связь с типом или классом объекта (Object Label), а не с конкретным изображением. Это позволяет системе распознать сохраненную информацию позже, когда пользователь видит другой экземпляр этого объекта или тот же объект в других условиях.

Используется ли NLP в этом патенте?

Да, обработка естественного языка (NLP) используется на этапе сохранения информации. Когда пользователь взаимодействует с Ассистентом (например, голосом), система использует NLP, чтобы понять команду, извлечь тип объекта и связанный с ним факт из речи пользователя.

Что происходит, если на изображении распознано несколько объектов с сохраненными данными?

Патент предусматривает такую ситуацию. Система может сгенерировать отдельные поисковые запросы для каждого объекта. Затем она может отобразить визуальные индикаторы (например, подсветку) для каждого объекта, указывая, что он доступен для выбора. Пользователь может нажать на интересующий его объект.

Является ли этот механизм проактивным?

Да, это ключевая характеристика системы. Поиск инициируется автоматически на основе визуального контекста, без явного запроса от пользователя (independent of a query input by the user). Система проактивно уведомляет пользователя о наличии релевантной информации, если распознает связанный объект.

Где физически происходит обработка — на устройстве или в облаке?

Патент указывает, что компоненты системы (Процессор данных, Процессор изображений, Ассистент) могут быть реализованы полностью на пользовательском устройстве, полностью в облачной системе или распределены между ними. Обработка на устройстве предпочтительна для снижения задержек и экономии трафика, особенно если личные данные хранятся локально.

Похожие патенты

Как Google распознает и связывает объекты на изображении с результатами поиска (Архитектура Google Lens)
Google использует систему параллельных поисковых движков (OCR, распознавание лиц, объектов, продуктов) для анализа визуального запроса (изображения). Система создает интерактивный документ, накладывая на исходное изображение визуальные идентификаторы (например, рамки или метки) для распознанных объектов. Эти идентификаторы служат ссылками на конкретные результаты поиска для каждого объекта.
  • US9087059B2
  • 2015-07-21
  • Мультимедиа

  • Ссылки

Как Google использует ваши личные данные (Gmail, Календарь, Фото) для генерации персонализированных подсказок в Autocomplete
Google анализирует активность пользователя и его контент в различных сервисах (таких как email, календарь, фотохостинг). На основе этих данных система генерирует персонализированные поисковые подсказки (Autocomplete), когда пользователь начинает вводить запрос. Это позволяет предлагать запросы типа «мои рейсы» или «мои фото», основываясь на реальных бронированиях или загруженных изображениях пользователя.
  • US9317585B2
  • 2016-04-19
  • Персонализация

  • Индексация

  • Поведенческие сигналы

Как Google заложил основы Визуального Поиска (Google Lens), используя контекст (время, местоположение) и мультимодальное распознавание
Этот патент описывает фундаментальную архитектуру мобильного визуального поиска Google (например, Google Lens). Он детализирует, как изображение с телефона анализируется несколькими специализированными движками (объекты, текст, лица). Критически важно, что система использует контекст, такой как время суток и местоположение, для повышения точности распознавания и учитывает различные ракурсы и условия освещения перед возвратом релевантной информации.
  • US7751805B2
  • 2010-07-06
  • Мультимедиа

Как Google использует историю физических перемещений пользователя для фильтрации и персонализации результатов поиска
Google может собирать и хранить историю физических перемещений пользователя (Location History). Патент описывает интерфейс, позволяющий пользователю осознанно включать свои прошлые местоположения (например, «места, где я был на прошлой неделе») в качестве фильтра для нового поискового запроса, чтобы сделать результаты более релевантными личному опыту.
  • US8874594B2
  • 2014-10-28
  • Персонализация

  • Поведенческие сигналы

  • Local SEO

Как Google индексирует реальный мир через носимые устройства для создания персональной поисковой истории (Lifelogging)
Google патентует систему для записи и индексации реального опыта пользователя с помощью мобильных и носимых устройств (например, очков). Система автоматически захватывает аудио и видео, распознает объекты, лица и звуки, и создает персональную, доступную для поиска базу данных («историю опыта»). Это позволяет пользователю искать информацию о том, что он видел или слышал.
  • US9087058B2
  • 2015-07-21
  • Индексация

  • Персонализация

  • Мультимедиа

Популярные патенты

Как Google определяет скрытый локальный интент в запросах для повышения релевантности местных результатов
Google использует механизм для определения того, подразумевает ли запрос (например, «ресторан») поиск локальной информации, даже если местоположение не указано. Система анализирует агрегированное поведение пользователей для расчета «степени неявной локальной релевантности» запроса. Если этот показатель высок, Google повышает в ранжировании результаты, соответствующие местоположению пользователя.
  • US8200694B1
  • 2012-06-12
  • Local SEO

  • Поведенческие сигналы

  • Семантика и интент

Как Google использует историю поиска, поведение и многофакторные профили пользователей для персонализации поисковой выдачи
Google создает детальные профили пользователей на основе истории запросов, взаимодействия с результатами (клики, время просмотра) и анализа контента посещенных страниц. Эти профили (включающие интересы по терминам, категориям и ссылкам) используются для корректировки стандартных оценок ранжирования. Степень персонализации динамически регулируется уровнем уверенности системы в профиле (Confidence Score).
  • US9298777B2
  • 2016-03-29
  • Персонализация

  • Поведенческие сигналы

  • SERP

Как Google позволяет пользователям "углубиться" в контент установленного мобильного приложения прямо из веб-выдачи
Google использует этот механизм для интеграции контента из нативных приложений в веб-поиск. Если приложение установлено у пользователя и система определяет высокую релевантность его контента запросу, в выдачу добавляется специальный элемент (например, "Больше результатов из приложения X"). Клик по этому элементу запускает новый поиск, показывая множество deep links только из этого приложения, не покидая интерфейс поиска.
  • US10579687B2
  • 2020-03-03
  • SERP

  • Семантика и интент

  • Ссылки

Как Google динамически переоценивает значимость факторов ранжирования, основываясь на их надежности в контексте конкретной выдачи
Google использует механизм для повышения качества ранжирования путем анализа надежности (Trustworthiness) различных факторов, влияющих на позицию документа. Если система обнаруживает значительную разницу в надежности сигналов среди результатов поиска, она снижает влияние менее достоверных факторов. Это гарантирует, что документы, получившие высокие оценки за счет ненадежных или легко манипулируемых сигналов, не будут ранжироваться выше документов с более достоверными показателями качества и релевантности.
  • US9623119B1
  • 2017-04-18
  • EEAT и качество

  • Поведенческие сигналы

  • SERP

Как Google использует анкорный текст входящих ссылок для определения синонимов и псевдонимов сущностей в Knowledge Graph
Google автоматически определяет синонимы и псевдонимы для сущностей (например, людей, компаний) в своем хранилище фактов (Knowledge Graph). Система анализирует анкорный текст ссылок, ведущих на исходные документы, из которых были извлечены факты о сущности. Это позволяет системе понять, что, например, "Биг Блю" и "IBM" относятся к одной и той же компании.
  • US8738643B1
  • 2014-05-27
  • Knowledge Graph

  • Семантика и интент

  • Ссылки

Как Google генерирует связанные запросы (Related Searches), используя сущности из топовых результатов и сохраняя структуру исходного запроса
Google использует систему для автоматической генерации уточнений запросов (например, «Связанные запросы»). Система анализирует топовые документы в выдаче и извлекает из них ключевые сущности. Затем эти сущности комбинируются с важными терминами исходного запроса, при этом строго сохраняется исходный порядок слов, чтобы создать релевантные и естественно звучащие предложения для дальнейшего поиска.
  • US8392443B1
  • 2013-03-05
  • Семантика и интент

  • Поведенческие сигналы

Как Google использует гибридную классификацию и данные о кликах пользователей для точного определения тематики контента
Google использует многоэтапный процесс для классификации контента в детальные иерархические категории. Система комбинирует традиционные методы классификации с анализом поисковых запросов и кликов пользователей (подтвержденных результатов поиска). Это позволяет точно определить узкоспециализированную тематику документа, фильтруя нерелевантные категории и взвешивая релевантность на основе TF-IDF и глубины иерархии.
  • US8145636B1
  • 2012-03-27
  • Семантика и интент

  • Поведенческие сигналы

Как Google фильтрует поведенческие сигналы, используя совместимость языков и стран пользователей
Google уточняет ранжирование, анализируя, откуда (страна) и на каком языке (язык пользователя) поступали исторические клики по документу. Если эти характеристики считаются «несовместимыми» с текущим пользователем, поведенческие сигналы (клики) от этих групп могут быть исключены или понижены в весе. Это предотвращает искажение релевантности данными от кардинально отличающихся аудиторий.
  • US8498974B1
  • 2013-07-30
  • Поведенческие сигналы

  • Мультиязычность

  • Персонализация

Как Google собирает и структурирует данные о поведении пользователей в Поиске по картинкам (включая ховеры, клики и 2D-позицию)
Патент Google описывает инфраструктуру для детального сбора данных в Поиске по картинкам. Система фильтрует общие логи, фиксируя не только клики, но и наведение курсора (ховеры), длительность взаимодействия и точное 2D-расположение (строка/столбец) изображения на выдаче. Эти данные агрегируются в Модель Запросов Изображений для оценки релевантности.
  • US8898150B1
  • 2014-11-25
  • Поведенческие сигналы

  • SERP

  • Мультимедиа

Как Google использует историю браузера, закладки и поведение пользователей для персонализации результатов поиска в e-commerce
Система отслеживает поведение пользователей (клики, время на сайте, покупки) и их сохраненные закладки (content pointers) в сетевой среде. На основе этих данных создается персональная модель релевантности и иерархия предпочтений. Эта модель используется для дополнения запросов, переранжирования результатов поиска и предоставления рекомендаций, обеспечивая персонализированный опыт в e-commerce.
  • US7089237B2
  • 2006-08-08
  • Поведенческие сигналы

  • Персонализация

  • SERP

seohardcore