SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google определяет «идеальное изображение» (Canonical View) объектов для улучшения точности визуального поиска

PROVIDING IMAGE SEARCH TEMPLATES (Предоставление шаблонов для поиска по изображениям)
  • US9087269B2
  • Google LLC
  • 2012-10-24
  • 2015-07-21
  • Мультимедиа
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google анализирует массивы изображений, чтобы определить стандартный способ фотографирования объекта (например, обуви) — так называемый «Canonical View». Затем система создает шаблоны (оверлеи) на основе этих видов, чтобы помочь пользователям делать снимки для визуального поиска (например, Google Lens). Это гарантирует, что поисковая система получит четкие входные данные, и помогает SEO-специалистам понять, как оптимизировать свои изображения для лучшего распознавания.

Описание

Какую проблему решает

Патент решает проблему низкой точности визуального поиска, возникающую из-за плохого качества входных изображений, предоставляемых пользователями. Когда пользователь фотографирует объект для поиска (например, для идентификации товара), снимок может быть сделан с неоптимального ракурса, в неправильной позе или содержать посторонние элементы (фон). Это затрудняет для поисковой системы идентификацию объекта и поиск релевантных результатов.

Что запатентовано

Запатентована система для генерации и использования «шаблонов поиска по изображениям» (Image Search Templates). Система анализирует базу данных изображений, чтобы определить «канонический вид» (Canonical View) — оптимальный ракурс или позу — для различных категорий объектов. Эти шаблоны затем используются как оверлеи (наложения) в видоискателе камеры, чтобы помочь пользователю сделать снимок объекта в соответствии с этим оптимальным видом. Это улучшает качество входного изображения для поисковой системы.

Как это работает

Система работает в двух режимах:

  1. Офлайн (Генерация шаблонов): Система классифицирует изображения по категориям объектов (например, «Обувь»). Внутри каждой категории изображения кластеризуются (Clustering) по сходству вида (поза, угол). Наиболее репрезентативный кластер определяет Canonical View. Из этого вида создается шаблон (Template).
  2. Онлайн (Использование шаблонов): Пользователь выбирает категорию объекта (или она определяется автоматически). Система отображает соответствующий шаблон как полупрозрачное наложение в камере. Пользователь совмещает реальный объект с шаблоном. Снимок и информация о шаблоне отправляются в поисковую систему. Поисковая система использует шаблон для сегментации изображения (отделения объекта от фона) и ограничения поиска нужной категорией.

Актуальность для SEO

Высокая. Визуальный поиск (например, Google Lens) является стратегическим направлением развития Google. Механизмы, описанные в патенте, напрямую связаны с улучшением пользовательского опыта и точности распознавания объектов в реальном мире, особенно в контексте E-commerce. Понимание того, как Google определяет Canonical View, критически важно для оптимизации изображений.

Важность для SEO

Патент имеет высокое значение (8.5/10) для стратегий Image SEO и Visual Search Optimization (VSO), особенно для E-commerce. Хотя он описывает механизм улучшения входного запроса пользователя, он раскрывает критически важную информацию о том, как Google анализирует, классифицирует и понимает визуальные данные. Понимание того, что Google ищет Canonical View и ключевые признаки (Points of Distinction), позволяет SEO-специалистам оптимизировать свои изображения так, чтобы они соответствовали стандартному представлению объекта, что повышает вероятность их правильного распознавания.

Детальный разбор

Термины и определения

Canonical View (Канонический вид)
Предпочтительный или репрезентативный вид для категории объектов. Это оптимальная поза, угол обзора или другой способ представления объекта, который обеспечивает наилучшие результаты при использовании в визуальном поиске. Определяется путем кластеризации изображений в категории.
Clustering (Кластеризация)
Процесс группировки изображений внутри категории на основе их характеристик (например, сходства пикселей, меток или форм объектов). Используется для определения Canonical View.
Image Acquisition Template / Image Search Template (Шаблон получения изображения / Шаблон поиска по изображению)
Шаблон, созданный на основе Canonical View. Используется как руководство (оверлей) для пользователя при съемке объекта и может передаваться поисковой системе для помощи в сегментации и категоризации запроса.
Labels (Метки)
Текстовые строки, связанные с изображениями. Используются для классификации изображений по категориям. Патент отмечает, что они могут быть получены из поисковых запросов, в ответ на которые эти изображения были выбраны как результат поиска.
Overlay (Оверлей / Наложение)
Визуальное представление шаблона (часто полупрозрачное), которое отображается поверх видоискателя камеры, чтобы помочь пользователю выровнять объект в соответствии с Canonical View.
Points of Distinction (Точки различия/Ключевые признаки)
Специфические визуальные особенности объекта, которые помогают отличить его от других похожих объектов (например, «язычок», «шнурки», «каблук» для обуви). Идентифицируются в шаблоне.
Segmentation (Сегментация)
Процесс идентификации пикселей, связанных с интересующим объектом, и отделения их от фона. Шаблон помогает в этом процессе.

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает основной метод генерации и предоставления шаблона.

  1. Система выбирает подмножество изображений из базы данных, которые классифицированы как изображения определенного типа объекта (например, «Обувь»).
  2. Система выбирает конкретное изображение из этого подмножества как репрезентативное (representative image) для данного типа объекта (это основа для Canonical View).
  3. На основе этого репрезентативного изображения генерируется шаблон (template). Этот шаблон предназначен для помощи пользователю при съемке объектов того же типа.
  4. Система предоставляет этот шаблон в ответ на запрос, указывающий на данный тип объекта.

Claim 2 (Зависимый от 1): Уточняет реализацию.

Шаблон представляет собой полупрозрачное изображение, которое накладывается (overlaid) на живое видео в видоискателе камеры.

Claim 5 (Зависимый от 1): Детализирует генерацию шаблона.

Генерация включает идентификацию особых точек интереса (particular points of distinction) в репрезентативном изображении для использования в шаблоне (например, идентификация каблука или шнурков).

Claim 7 (Зависимый от 1): Детализирует, как выбирается подмножество изображений (Шаг 1 из Claim 1).

  1. Для множества изображений определенного типа объекта определяется поза (pose), в которой находится объект на изображении.
  2. В качестве подмножества выбираются те изображения, на которых объект находится в определенной (канонической) позе. Это подчеркивает, что выбор репрезентативного изображения основан на визуальном представлении (позе), а не только на категории.

Где и как применяется

Изобретение затрагивает несколько этапов поиска, разделяясь на офлайн-процессы подготовки данных и онлайн-процессы обработки запроса.

INDEXING – Индексирование и Извлечение признаков
На этом этапе происходит основная офлайн-работа по созданию шаблонов:

  • Сбор и Маркировка: Сбор исходных изображений и ассоциация с ними меток (Labels). Важно, что патент упоминает использование поведенческих данных для маркировки: метки могут быть получены на основе поисковых запросов, по которым пользователи выбирали эти изображения.
  • Классификация и Кластеризация: Изображения классифицируются по категориям, а затем кластеризуются по позам (poses) и визуальному сходству.
  • Определение Canonical View и Генерация Шаблонов: Система идентифицирует репрезентативные виды и генерирует Templates, включая идентификацию Points of Distinction.

CRAWLING & Data Acquisition (Сбор данных)
В контексте этого патента, это относится к получению визуального запроса от пользователя. Система предоставляет интерфейс (камеру с оверлеем) для сбора оптимизированных входных данных.

QUNDERSTANDING – Понимание Запросов
Это основной этап применения в онлайн-режиме. Когда пользователь делает снимок с использованием шаблона, система получает не только пиксели, но и контекст (информацию о шаблоне):

  • Интерпретация Запроса: Шаблон помогает интерпретировать интент, указывая категорию контента.
  • Сегментация: Шаблон помогает системе понять, где находится объект на изображении, и отделить его от фона.

RANKING – Ранжирование (Визуальный поиск)
Система выполняет поиск, используя сегментированное изображение и идентифицированные признаки. Информация о шаблоне может использоваться для ограничения поиска (constrain the search) определенной категорией (например, искать только среди обуви).

На что влияет

  • Конкретные типы контента и ниши: Наибольшее влияние оказывается на E-commerce, каталоги товаров и любые ниши, где важна точная идентификация физических объектов (одежда, обувь, электроника, запчасти, мода).
  • Специфические запросы: Влияет на визуальные поисковые запросы (Image Search Queries), выполняемые с помощью камеры (например, через Google Lens), целью которых является идентификация объекта или поиск похожих товаров.

Когда применяется

  • Триггеры активации: Алгоритм генерации шаблонов работает офлайн в процессе индексирования. Алгоритм использования шаблонов активируется в реальном времени, когда пользователь инициирует визуальный поиск.
  • Условия применения: Применяется, когда пользователь выбирает (или система автоматически определяет) категорию объекта для съемки, и для этой категории существует заранее сгенерированный Image Search Template.

Пошаговый алгоритм

Процесс А: Генерация шаблонов (Офлайн / INDEXING)

  1. Сбор и Маркировка данных: Сбор исходных изображений и ассоциация с ними меток (Labels), в том числе на основе анализа поисковых запросов пользователей.
  2. Классификация: Группировка изображений в категории на основе меток.
  3. Сегментация Изображений: Идентификация пикселей, относящихся к основному объекту, и отделение их от фона.
  4. Кластеризация Видов: Внутри каждой категории изображения кластеризуются на основе схожести представления объекта (поза, угол обзора). Используются признаки: сходство пикселей (pixel similarity) или формы объектов (shapes).
  5. Определение Canonical View: Выбор репрезентативного вида для категории. Это может быть самый большой кластер, кластер с наиболее разнообразными изображениями или вид, определенный вручную.
  6. Идентификация Признаков: Определение ключевых отличительных особенностей (Points of Distinction) объекта в Canonical View.
  7. Генерация Шаблона: Преобразование Canonical View в формат шаблона (например, полупрозрачный оверлей) с разметкой точек интереса.

Процесс Б: Использование шаблона для визуального поиска (Онлайн / QUNDERSTANDING)

  1. Выбор шаблона: Получение ввода для выбора шаблона (ручной выбор или автоматическое определение объекта в видоискателе).
  2. Отображение Оверлея: Отображение шаблона как наложения в видоискателе камеры.
  3. Помощь при съемке: Пользователь совмещает объект с оверлеем. Система может отображать индикатор статуса (например, «X» или «Галочка»), показывающий, насколько хорошо объект соответствует шаблону (Template Conformity).
  4. Захват Изображения: Съемка объекта в оптимальном виде.
  5. Отправка Запроса: Отправка захваченного изображения и информации о использованном шаблоне на сервер.
  6. Сегментация на Сервере: Использование информации о шаблоне для идентификации и сегментации основного объекта на изображении.
  7. Выполнение Поиска (RANKING): Поиск с использованием сегментированного изображения, часто ограниченный категорией шаблона.
  8. Предоставление Результатов: Возвращение пользователю результатов поиска.

Какие данные и как использует

Данные на входе

Офлайн (Генерация шаблонов):

  • Контентные/Мультимедиа факторы: База данных исходных изображений (Source Images). Пиксельные данные и формы объектов.
  • Поведенческие факторы: Данные о том, в ответ на какие поисковые запросы пользователи выбирали конкретные изображения. Используются для генерации меток (Labels).
  • Метаданные: Существующие метки и метаданные изображений, используемые для классификации.

Онлайн (Обработка запроса):

  • Мультимедиа факторы: Захваченное пользователем изображение (Captured Image).
  • Пользовательские факторы: Выбор шаблона пользователем (если ручной).
  • Системные данные: Информация о шаблоне (Template Information), использованном при захвате.

Какие метрики используются и как они считаются

Патент не приводит формул, но описывает следующие метрики и методы:

  • Сходство изображений (Image Similarity): Метрики для кластеризации. Упоминаются сходство пикселей (pixel similarity) и сходство форм (shapes associated with the content).
  • Метрики выбора Canonical View:
    • Размер кластера (Cluster Size): Количество изображений в кластере (выбор самого большого).
    • Разнообразие кластера (Cluster Diversity): Выбор кластера, содержащего наиболее разнообразные изображения.
  • Соответствие шаблону (Template Conformity): Метрика, используемая в реальном времени на клиентском устройстве для оценки того, насколько хорошо объект в видоискателе соответствует оверлею.
  • Точки интереса (Points of Distinction): Методы анализа изображений для идентификации ключевых визуальных особенностей объекта.

Выводы

  1. Google определяет «идеальный» вид для каждого объекта: Ключевая концепция патента — Canonical View. Google активно стремится понять, как должен выглядеть объект в идеальном представлении для его точной идентификации, и использует машинное обучение (кластеризацию) для автоматического определения этой оптимальной позы или ракурса.
  2. Стандартизация ввода для улучшения вывода: Основная цель патента — улучшить качество визуального поиска за счет стандартизации входных данных. Шаблоны помогают пользователям предоставить системе изображение, которое она легко обработает.
  3. Важность меток и поведенческих данных для классификации: Для обучения системы используются метки (Labels). Патент явно указывает, что они могут генерироваться на основе того, по каким текстовым запросам пользователи кликали на изображение. Это подчеркивает глубокую связь между текстовым и визуальным поиском.
  4. Шаблоны как инструмент сегментации и категоризации: Помимо помощи пользователю, шаблон используется поисковой системой как мощный контекстный сигнал для точной сегментации объекта на фото и ограничения области поиска нужной категорией, что повышает релевантность.
  5. Фокус на деталях (Points of Distinction): Система не просто определяет категорию, но и идентифицирует ключевые визуальные детали объекта (например, тип каблука или шнуровки), что указывает на глубокий уровень визуального анализа товаров для точного мэтчинга.

Практика

Best practices (это мы делаем)

Хотя патент описывает, как Google помогает пользователям делать лучшие снимки для запросов, он дает критически важные инсайты для оптимизации индексируемых изображений на сайте.

  • Оптимизация под Canonical View: Необходимо анализировать, какие ракурсы Google считает каноническими для ваших категорий товаров (анализируя выдачу Google Images и Google Shopping). Основные изображения товаров должны соответствовать этим Canonical Views. Если канонический вид для ботинка — это профиль, используйте его как главное фото.
  • Четкая сегментация объекта (Чистый фон): Убедитесь, что товары на фотографиях легко сегментируются. Используйте контрастный или чистый (предпочтительно белый) фон, чтобы помочь системе отделить объект от окружения, как это делает механизм Segmentation, описанный в патенте.
  • Фокус на ключевых особенностях (Points of Distinction): Предоставляйте изображения, на которых четко видны уникальные детали товара (логотипы, текстуры, элементы дизайна). Поскольку система использует шаблоны для идентификации этих признаков, их четкость критична для точного мэтчинга.
  • Усиление связи с текстовыми запросами (Labels): Так как метки для обучения системы могут браться из связанных поисковых запросов, критически важно оптимизировать страницы (Alt-тексты, заголовки, окружающий текст, микроразметка Product) под релевантные запросы. Это повышает вероятность того, что ваши изображения будут правильно классифицированы.

Worst practices (это делать не надо)

  • Использование нестандартных ракурсов для основных фото: Использование креативных, но нестандартных углов или lifestyle-фотографий в качестве основного изображения товара может снизить распознаваемость, так как они не будут соответствовать ожидаемому Canonical View.
  • Зашумленный фон и низкое качество: Фотографии, на которых объект сливается с фоном или плохо освещен, затрудняют Segmentation и идентификацию точек интереса.
  • Игнорирование текстовой оптимизации и классификации: Отсутствие текстовой оптимизации или неправильная категоризация товаров в фидах снижает шансы на правильную ассоциацию меток (Labels) с изображением.
  • Блокировка ключевых особенностей: Размещение крупных водяных знаков или других элементов поверх ключевых деталей товара (Points of Distinction) может ухудшить распознавание.

Стратегическое значение

Этот патент подтверждает, что Google рассматривает визуальный поиск как процесс, требующий стандартизации и структурирования визуальных данных. Для SEO-стратегии это означает, что оптимизация изображений переходит от простых атрибутов (Alt-теги) к обеспечению визуальной понятности и соответствия стандартам, которые Google выводит с помощью машинного обучения. В долгосрочной перспективе сайты, предоставляющие чистые, стандартизированные (канонические) изображения товаров, будут иметь преимущество в визуальном поиске (Google Images, Google Lens).

Практические примеры

Сценарий: Оптимизация карточки товара для интернет-магазина обуви

  1. Анализ Canonical View: SEO-специалист анализирует выдачу Google Images для категории «Мужские кожаные ботинки». Он замечает, что большинство топовых результатов показывают ботинок в профиль (вид сбоку), стоящий на ровной поверхности.
  2. Постановка ТЗ фотографу: Главное изображение товара должно быть сделано в этом Canonical View: ботинок в профиль, на белом фоне, с равномерным освещением.
  3. Оптимизация деталей: Дополнительные фото должны четко показывать Points of Distinction: крупный план шнуровки, текстуры кожи, формы каблука и подошвы.
  4. Текстовая оптимизация: Страница и Alt-тексты оптимизируются под релевантные запросы, чтобы усилить связь изображения с правильными Labels. Используется точная микроразметка Product.
  5. Ожидаемый результат: Изображение товара точно соответствует ожидаемому Google стандарту. Система легко сегментирует ботинок, классифицирует его и распознает ключевые детали. Это повышает шансы на высокие позиции в Google Images и распознавание через Google Lens.

Вопросы и ответы

Что такое «Canonical View» (Канонический вид) в контексте этого патента?

Это стандартное или идеальное представление объекта, которое Google считает оптимальным для его распознавания. Например, для обуви это может быть вид в профиль. Canonical View определяется автоматически путем анализа и кластеризации большого количества изображений одного типа, чтобы найти наиболее распространенный и информативный способ представления.

Как Google определяет, какой вид является каноническим?

Система использует методы кластеризации (Clustering). Она группирует все изображения одной категории (например, «кроссовки») по схожести позы и угла обзора. Кластер, который признается наиболее репрезентативным (например, тот, который содержит наибольшее количество изображений или является наиболее разнообразным), выбирается в качестве Canonical View.

Как этот патент влияет на мою стратегию Image SEO?

Он подчеркивает необходимость оптимизации ваших изображений под тот вид, который Google ожидает увидеть. Вам следует изучить, как выглядят Canonical Views для ваших товаров, и использовать эти ракурсы для основных изображений. Это значительно повышает вероятность того, что Google правильно распознает и классифицирует ваш товар.

Что такое «Points of Distinction» и почему они важны?

Это ключевые визуальные особенности объекта, которые помогают отличить его от других похожих объектов (например, шнурки, каблук, логотип, текстура материала). Патент указывает, что эти точки идентифицируются в Canonical View и используются для более точного мэтчинга. Важно, чтобы эти детали были четко видны на ваших фотографиях.

Как Google получает метки (Labels) для классификации изображений?

Патент упоминает несколько способов, но один из ключевых для SEO — это анализ поисковых запросов, в ответ на которые пользователи выбирали данное изображение. Это подчеркивает важность сильной связи между текстовой оптимизацией страницы (включая Alt-тексты и окружающий контент) и размещенными на ней изображениями.

Патент описывает шаблоны, которые помогают пользователям делать фото. Как это относится ко мне, если я загружаю свои фото на сайт?

Шаблоны создаются на основе Canonical View. Понимая, как выглядит шаблон, вы понимаете, как выглядит Canonical View. Если ваши изображения на сайте соответствуют этому виду, они лучше обрабатываются системой, которая обучена распознавать объекты именно в таком представлении.

Стоит ли использовать только канонические виды на сайте?

Для основного изображения товара рекомендуется использовать Canonical View, так как это улучшает распознаваемость алгоритмами. Однако важно также предоставлять дополнительные ракурсы и изображения в контексте использования (lifestyle), чтобы обеспечить лучший пользовательский опыт и показать все особенности товара.

Как важна сегментация изображения для SEO?

Сегментация (отделение объекта от фона) критически важна. Патент описывает, как шаблоны помогают системе сегментировать изображение. Чтобы помочь Google сегментировать ваши изображения при индексации, используйте чистый, контрастный фон и хорошее освещение. Это позволяет системе сфокусироваться на самом товаре.

Влияет ли соответствие Canonical View на ранжирование в Google Images?

Патент фокусируется на улучшении распознавания и классификации, что является необходимым условием для ранжирования. Изображения, которые соответствуют Canonical View, с большей вероятностью будут правильно поняты системой и, следовательно, имеют больше шансов на хорошее ранжирование по релевантным визуальным и текстовым запросам.

Применяется ли эта технология в Google Lens?

Хотя патент не упоминает Google Lens напрямую, описанные технологии — использование оверлеев для помощи при съемке, определение категорий объектов, сегментация и поиск на основе Canonical View — являются фундаментальными для работы систем визуального поиска, подобных Google Lens.

Похожие патенты

Как Google кластеризует результаты поиска по картинкам и выбирает репрезентативное (каноническое) изображение для показа
Google организует результаты поиска изображений в иерархические кластеры на основе визуального сходства. Для каждого кластера выбирается «каноническое изображение» — часто это изображение с самым высоким исходным рейтингом или наиболее визуально авторитетное (с использованием метрик типа VisualRank). Эта структура определяет, как изображения группируются и какое изображение получает максимальную видимость в интерфейсе Google Images.
  • US8352465B1
  • 2013-01-08
  • Мультимедиа

  • SERP

Как Google индексирует, ищет и отображает интерактивные 3D-модели в результатах поиска
Google разработал систему для индексации и поиска 3D-моделей. Система может автоматически аннотировать части объектов (например, определять «объектив» на камере), изучая их форму и расположение. Это позволяет искать 3D-объекты, используя изображения или другие 3D-модели в качестве запроса. Результаты поиска включают интерактивные 3D-модели, которые можно вращать прямо в выдаче (moveable inline).
  • US9916345B1
  • 2018-03-13
  • Индексация

  • Мультимедиа

  • SERP

Как Google агрегирует и ранжирует пользовательские метки для идентификации объектов в Визуальном поиске (Google Lens)
Google использует этот механизм для повышения точности идентификации объектов при поиске по изображению. Система находит множество визуально похожих изображений, загруженных пользователями (UGC), и анализирует их текстовые метки. Метки группируются по смыслу, а затем эти группы ранжируются на основе совокупной визуальной релевантности. Это позволяет определить наиболее вероятное название объекта, опираясь на коллективное мнение.
  • US9424279B2
  • 2016-08-23
  • Мультимедиа

  • Семантика и интент

  • SERP

Как Google разбирает изображения на части для визуального поиска товаров (e.g., Google Lens)
Система Google для визуального поиска товаров, которая анализирует изображения, извлекая глобальные и локальные признаки (цвет, форма, текстура). Патент описывает, как это позволяет пользователям искать похожие товары, выделяя конкретные части объекта (например, узор на сумке или форму каблука), используя технологию, лежащую в основе Google Lens.
  • US9008435B2
  • 2015-04-14
  • Мультимедиа

  • Индексация

  • Google Shopping

Как Google заложил основу визуального поиска (Google Lens), превращая изображения с камеры в поисковые запросы
Google разработал систему, позволяющую использовать изображения с мобильных устройств в качестве поисковых запросов. Система распознает объекты на изображении (продукты, здания, текст, лица), преобразует их в символьное описание (текстовый запрос) и использует его для поиска релевантной информации в стандартной поисковой системе.
  • US8421872B2
  • 2013-04-16
  • Мультимедиа

  • Семантика и интент

  • Индексация

Популярные патенты

Как Google использует структурированные данные для отображения прямых ссылок на песни в результатах поиска (Rich Snippets)
Google улучшает результаты поиска музыки, извлекая детали песен (названия, альбомы, продолжительность) из структурированной разметки (например, HTML5 microdata) на веб-страницах. Это позволяет Google отображать прямые ссылки на конкретные песни (вторичные ссылки) внутри основного блока результатов поиска, при условии соблюдения определенных порогов качества и популярности.
  • US9128993B2
  • 2015-09-08
  • Ссылки

  • SERP

  • Индексация

Как Google использует цепочки запросов и время взаимодействия для определения и ранжирования результатов, которые действительно нужны пользователям
Google анализирует последовательности запросов пользователей (цепочки запросов) и время между кликами и последующими запросами (время взаимодействия), чтобы определить удовлетворенность пользователя. Если пользователи часто переформулируют Запрос А в Запрос Б, прежде чем найти удовлетворительный результат, Google использует эти данные, чтобы ранжировать этот удовлетворительный результат выше по исходному Запросу А и предлагать Запрос Б в качестве связанного поиска.
  • US9342600B1
  • 2016-05-17
  • Поведенческие сигналы

  • Семантика и интент

  • SERP

Как Google индексирует контент внутри мобильных приложений для показа в результатах поиска (App Indexing)
Google использует механизм для индексации контента, который пользователи просматривают в нативных мобильных приложениях. Система получает данные о просмотренном контенте и deep links напрямую от приложения на устройстве. Эта информация сохраняется в индексе (персональном или публичном) и используется для генерации результатов поиска, позволяя пользователям переходить к контенту внутри приложений напрямую из поисковой выдачи.
  • US10120949B2
  • 2018-11-06
  • Индексация

  • SERP

  • Персонализация

Как Google определяет язык и языковую релевантность страницы, анализируя контекст входящих и исходящих ссылок
Google использует контекст входящих и исходящих ссылок для определения языковой релевантности ресурса. Система анализирует язык анкоров, URL, контент ссылающихся и целевых страниц, а также качество ссылок и тип страницы (например, «языковой шлюз»). Это позволяет точно идентифицировать релевантные языки, даже если на самой странице мало текста.
  • US9098582B1
  • 2015-08-04
  • Ссылки

  • Мультиязычность

  • Семантика и интент

Как Google динамически изменяет вес синонимов в ранжировании на основе поведения пользователей
Google не присваивает фиксированный вес синонимам (замещающим терминам) при ранжировании. Вес синонима динамически корректируется для каждого документа в зависимости от того, насколько релевантен исходный термин запроса этому документу. Эта релевантность определяется на основе поведенческих данных (клики, время просмотра), что позволяет точнее интерпретировать значение синонимов в контексте конкретной страницы.
  • US9116957B1
  • 2015-08-25
  • Поведенческие сигналы

  • Семантика и интент

  • SERP

Как Google предсказывает, какие сайты будут интересны пользователю на основе его контекста (местоположение, время, интересы) без поискового запроса
Google использует агрегированные данные о поведении пользователей для прогнозирования контента. Система анализирует контекст пользователя (местоположение, время, интересы, историю) и определяет, какие сайты посещают похожие пользователи в аналогичном контексте значительно чаще, чем пользователи в целом. Этот механизм позволяет предлагать релевантный контент без явного запроса (например, в Google Discover).
  • US9195703B1
  • 2015-11-24
  • Персонализация

  • Поведенческие сигналы

  • Семантика и интент

Как Google использует время пребывания на странице (Dwell Time) для оценки качества и корректировки ранжирования
Google анализирует продолжительность визитов пользователей на страницы из результатов поиска (Dwell Time). Система рассчитывает метрику, сравнивающую количество «длинных кликов» (длительных визитов) с общим количеством кликов для конкретного документа по конкретному запросу. Этот показатель используется как сигнал качества, независимый от позиции в выдаче, для повышения или понижения документа в ранжировании.
  • US8661029B1
  • 2014-02-25
  • Поведенческие сигналы

  • SERP

Как Google динамически фильтрует выдачу, уточняя интент пользователя после клика по результату
Google использует механизм для обработки неоднозначных запросов. Если выдача содержит результаты, относящиеся к разным сущностям (например, «Ягуар» как животное и как автомобиль), клик пользователя по одному из результатов сигнализирует о его интересе к конкретной сущности. При возврате на страницу выдачи система модифицирует SERP, скрывая или понижая результаты, связанные с нерелевантными сущностями, и фокусируя выдачу на выбранном интенте.
  • US9355158B2
  • 2016-05-31
  • Семантика и интент

  • SERP

  • Поведенческие сигналы

Как Google динамически обновляет выдачу в реальном времени, если пользователь не кликает на результаты
Google отслеживает взаимодействие с поисковой выдачей в реальном времени. Если пользователь просматривает результаты, но не кликает на них в течение определенного времени (определяемого моделью поведения), система интерпретирует это как имплицитную отрицательную обратную связь. На основе анализа этих «отвергнутых» результатов Google автоматически пересматривает запрос (корректируя веса или заменяя термины) и динамически предоставляет новый набор результатов.
  • US20150169576A1
  • 2015-06-18
  • Поведенческие сигналы

  • SERP

  • Семантика и интент

Как Google рассчитывает «VisualRank» для изображений и медиафайлов, используя виртуальные ссылки на основе схожести и поведения пользователей
Google использует алгоритм (концептуально называемый VisualRank) для ранжирования изображений и других медиафайлов путем создания «виртуальных ссылок» между ними. Эти ссылки основаны на визуальной схожести контента, данных о кликах пользователей и контексте размещения (URL analysis). Это позволяет оценить качество и авторитетность медиафайлов даже без явных гиперссылок, при этом система активно избегает показа слишком похожих (дублирующихся) результатов.
  • US8732187B1
  • 2014-05-20
  • Ссылки

  • Мультимедиа

  • Поведенческие сигналы

seohardcore