SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google использует визуальные доказательства из изображений для подтверждения информации о местах (POI) и повышения доверия к данным

SEARCH RESULTS WITH RESULT-RELEVANT HIGHLIGHTING (Результаты поиска с подсветкой, релевантной результату)
  • US20230044871A1
  • Google LLC
  • 2020-12-29
  • 2023-02-09
  • EEAT и качество
  • Мультимедиа
  • Индексация
  • Local SEO
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google разработал систему для повышения доверия к данным о точках интереса (POI). Система извлекает фактическую информацию (адреса, часы работы, услуги) из изображений (Street View, фото пользователей) с помощью компьютерного зрения и помечает её как «визуально проверяемую». При ответе на запрос система может показать исходное изображение и аннотировать (выделить или увеличить) ту его часть, которая подтверждает предоставленную информацию.

Описание

Какую проблему решает

Патент решает проблему недостаточного доверия пользователей к точности информации (например, адреса, часы работы), предоставляемой картографическими и поисковыми приложениями, когда источник данных неясен [0001]. Он устраняет необходимость для пользователя вручную и времязатратно верифицировать данные, например, пытаясь найти подтверждение в панорамах улиц (Street View) [0001]. Изобретение автоматизирует этот процесс, предоставляя мгновенное визуальное доказательство точности данных.

Что запатентовано

Запатентована система предоставления визуально проверяемых метаданных (visually-verifiable metadata) о точках интереса (Points of Interest, POI). Система обрабатывает изображения, связанные с POI, извлекает из них метаданные (например, с помощью OCR) и сохраняет связь с изображением-источником [0044]. В ответ на запрос система предоставляет не только сами данные, но и соответствующее изображение, в котором аннотируется (выделяется) та часть, которая подтверждает эти данные [0002], [0066].

Как это работает

Система работает в два основных этапа:

  1. Индексирование (Офлайн): Система собирает изображения (Street View, загруженные пользователями и т.д.) [0049] и анализирует их с помощью моделей распознавания (OCR, машинное зрение) для извлечения объектов и текста [0053]. Эта информация сохраняется как derived metadata и помечается как visually-verifiable [0060].
  2. Обработка запроса (Онлайн): При получении запроса система извлекает релевантные метаданные [0063]. Если доступны visually-verifiable metadata, они могут быть приоритизированы [0065]. Система возвращает метаданные и связанное изображение. В интерфейсе система аннотирует изображение, выделяя конкретную область (например, увеличивая табличку на двери), чтобы пользователь мог верифицировать информацию [0066].

Актуальность для SEO

Высокая. Патент опубликован в 2023 году и полностью соответствует текущим трендам развития ИИ в поиске: глубокий анализ изображений (мультимодальность, Google Lens) и повышение достоверности данных в Google Maps и Knowledge Graph. Использование изображений как источника истины (Ground Truth) для верификации данных о реальном мире является актуальным приоритетом.

Важность для SEO

Патент имеет высокое значение (8.5/10), особенно критичное для Локального SEO (Local SEO). Он демонстрирует, что Google активно использует изображения как источник достоверных фактов о POI, а не просто как визуальный контент. Поскольку система может приоритизировать visually-verifiable metadata [0065], наличие четких, качественных и актуальных визуальных доказательств (фото вывесок, адресов, услуг) становится критически важным для подтверждения данных о бизнесе и потенциально влияет на ранжирование в локальной выдаче.

Детальный разбор

Термины и определения

Annotation (Аннотация)
Визуальное выделение метаданных в изображении. Методы включают подсветку (highlighting), обводку кругом (circled), обводку контуром (outlined) или увеличение (enlarged) [0008], [0066].
Defined Metadata (Определенные метаданные)
Метаданные, основанные на данных, сопровождающих файл изображения (например, время и место съемки из EXIF, имя файла). Они не извлекаются из контента изображения [0044], [0052].
Derived Metadata (Производные метаданные)
Метаданные, сгенерированные путем анализа визуального содержимого изображения с помощью моделей распознавания (например, распознанный текст адреса, идентифицированный логотип) [0044], [0053].
Image Recognition Models (Модели распознавания изображений)
Алгоритмы ИИ для анализа изображений. Упоминаются: машинное восприятие (machine perception), распознавание логотипов (logo recognition), семантическая сегментация (semantic segmentation), OCR и Structure-from-Motion (SfM) [0055].
Points of Interest (POI, Точки интереса)
Любое место или объект в реальном мире. Примеры: бизнесы, достопримечательности, парки, адреса, дорожные знаки, жилые дома. POI могут быть иерархическими [0035]-[0036].
Structure-from-Motion (SfM)
Технология компьютерного зрения для оценки трехмерной структуры сцены. Используется для точной локализации фотографий и сопоставления объектов, снятых с разных ракурсов и в разное время [0055].
Visually-Verifiable Metadata (VVM, Визуально проверяемые метаданные)
Метаданные (defined или derived), которые можно продемонстрировать в изображении, из которого они были получены. Служат доказательством точности информации [0060].

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает основной метод предоставления метаданных в приложении.

  1. Система отправляет запрос из приложения.
  2. В ответ система получает: (а) visually-verifiable metadata (VVM), соответствующие релевантным POI, и (б) изображение, связанное с этими VVM.
  3. Система отображает в приложении полученное изображение.
  4. Ключевой элемент: VVM аннотируются (выделяются) внутри отображаемого изображения.

Ядро изобретения — это автоматическое соединение метаданных с визуальным доказательством их источника и акцентирование этого доказательства в интерфейсе.

Claim 3 (Зависимый от 1): Уточняет условие отображения.

Перед отображением изображения система получает запрос на верификацию VVM (request for verification). Изображение отображается в ответ на этот запрос [0006]. Это означает, что аннотированное изображение может показываться не автоматически, а только если пользователь явно запросит доказательство (например, нажав кнопку).

Claim 5 (Зависимый от 1): Уточняет методы аннотации.

Аннотированные VVM могут быть подсвечены, обведены кругом, идентифицированы, обведены контуром или увеличены [0008].

Claim 6 (Зависимый от 1): Уточняет сценарий использования.

Приложение может быть навигационным, а запрос — пунктом назначения (использование VVM для подтверждения конечной точки маршрута) [0009].

Где и как применяется

Изобретение затрагивает несколько ключевых этапов поисковой архитектуры.

CRAWLING – Сканирование и Сбор данных
Система активно собирает Image Data из различных источников: автоматически (веб-краулеры, автомобили Street View) или вручную (загрузка пользователями, владельцами POI) [0049].

INDEXING – Индексирование и извлечение признаков
Основная обработка данных происходит здесь:

  1. Анализ изображений: Используются Image Recognition Models (OCR, ML, SfM) для идентификации объектов и текста [0053], [0055].
  2. Генерация метаданных: Извлекаются Defined Metadata и генерируются Derived Metadata [0044].
  3. Идентификация VVM: Система определяет, являются ли метаданные Visually-Verifiable [0060].
  4. Хранение: Данные сохраняются в ассоциации с POI. Также сохраняется информация о местоположении идентифицированных элементов внутри изображения и в реальном мире [0057], [0058].

RANKING / RERANKING – Ранжирование и Переранжирование
На этапе выбора данных система может приоритизировать visually-verifiable metadata по сравнению с данными без визуального подтверждения [0065]. В патенте указано, что наличие визуальной верификации может использоваться при ранжировании результатов [0079], так как повышает уверенность (confidence score) в точности информации.

METASEARCH – Метапоиск и Смешивание (Слой представления)
На этапе формирования интерфейса (SERP, Карты, Навигация) система выполняет финальную задачу:

  1. Отображает изображение, связанное с VVM.
  2. Применяет аннотации (увеличение, подсветка) к той части изображения, где находятся VVM [0066].

На что влияет

  • Конкретные типы контента и ниши: Наибольшее влияние на Локальное SEO (Local SEO). Критично для любых бизнесов с физическими точками: ритейл, рестораны, услуги, отели. Влияет на представление информации в Google Maps и локальной выдаче.
  • Специфические запросы: Локальные запросы (адресные, категорийные), запросы атрибутов бизнеса (например, «часы работы» или «ресторан с доставкой» [0073]).
  • Определенные форматы контента: Картографические интерфейсы, Local Pack, интерфейсы навигации [0071], Карточки Знаний (Knowledge Panels).

Когда применяется

  • Условия работы: Наличие в базе данных изображений, связанных с POI, из которых удалось извлечь VVM, релевантные запросу [0065].
  • Триггеры активации:
    • Автоматически при ответе на запрос (FIG. 7-10).
    • По запросу пользователя: если пользователь активирует опцию для просмотра визуального доказательства (request for verification), например, через кнопку «Show visual evidence» (FIG. 11A-11B) [0076].

Пошаговый алгоритм

Процесс А: Создание базы данных VVM (Индексирование)

  1. Сбор данных: Система собирает данные изображений [0049].
  2. Ассоциация с POI: Изображения сохраняются в ассоциации с одной или несколькими POI [0050].
  3. Анализ Defined Metadata: Извлечение и сохранение метаданных файла (геолокация, время) [0052].
  4. Идентификация Derived Metadata: Обработка изображений с помощью Image Recognition Models (OCR, Object Detection) для идентификации объектов и текста [0053].
  5. Хранение Derived Metadata: Сохранение извлеченных данных и их местоположения внутри изображения и в реальном мире (используя SfM) [0057]-[0058].
  6. Маркировка VVM: Метаданные, видимые в изображении, маркируются как visually-verifiable metadata [0060].

Процесс Б: Обработка запроса и предоставление VVM

  1. Получение запроса: Система получает запрос от приложения [0061].
  2. Извлечение метаданных: Извлечение релевантных метаданных из базы данных POI [0063].
  3. Проверка наличия VVM: Определение, содержат ли данные VVM [0065].
  4. Приоритизация: Если VVM найдены, они могут быть приоритизированы. Учитывается свежесть VVM (более новые VVM приоритетнее старых) [0065].
  5. Предоставление данных: Система предоставляет метаданные и связанное изображение [0066].
  6. Отображение и Аннотация: Приложение отображает изображение. VVM аннотируются внутри изображения (увеличение, подсветка) для демонстрации доказательства пользователю [0066].

Какие данные и как использует

Данные на входе

  • Мультимедиа факторы (Изображения): Ключевые данные. Включают фотографии, видео (кадры), Street View, спутниковые снимки, аэрофотосъемку. Также упоминаются данные сенсоров (LiDAR, радар, инфракрасные) [0043]. Источники: Google, пользователи, владельцы бизнеса, веб-краулинг [0049].
  • Географические факторы: Данные о местоположении POI и месте съемки изображения (используются как Defined Metadata) [0044].
  • Контентные факторы (Текст на изображениях): Текст, присутствующий на изображениях: номера домов, названия улиц, часы работы, информация о доставке, меню [0058].
  • Структурные факторы (Объекты): Распознанные физические объекты на изображениях (здания, вывески, дороги, логотипы) [0056].

Какие метрики используются и как они считаются

  • Visually-Verifiable (Метка): Метка, указывающая, могут ли метаданные быть подтверждены исходным изображением [0060].
  • Приоритизация VVM: Механизм, предпочитающий VVM неверифицируемым данным для повышения уверенности (confidence score) [0065].
  • Свежесть (Freshness): Возраст VVM учитывается при приоритизации; более свежие данные предпочтительнее, особенно если место часто меняется (rate of change of a place) [0065].
  • Методы анализа изображений:
    • OCR (Optical Character Recognition): Для извлечения текста [0055].
    • Machine Perception / Logo Recognition / Semantic Segmentation: Для идентификации объектов и брендов [0055].
    • 3D Reconstruction и Structure-from-Motion (SfM): Используются для объединения данных из нескольких изображений, точной локализации фотографий и сопоставления объектов, снятых с разных ракурсов и в разное время. Это повышает точность верификации [0055].

Выводы

  1. Изображения как источник структурированных фактов (Ground Truth): Патент подтверждает, что Google активно использует компьютерное зрение для извлечения и валидации фактической информации о POI. Изображения рассматриваются как авторитетный источник достоверных данных, а не просто как визуальный контент.
  2. Приоритет визуально подтвержденных данных: Система может предпочитать метаданные, которые можно визуально проверить (VVM), данным из других источников [0065]. Это может влиять на то, какая информация будет показана пользователю и потенциально на ранжирование в локальном поиске [0079].
  3. Критичность визуальной информации для Local SEO: Точность информации на физических носителях (вывески, таблички) и её качественное отражение в онлайн-изображениях (фото в GBP, Street View) становится фактором, влияющим на то, как Google верифицирует и представляет бизнес.
  4. Извлечение атрибутов и услуг: Система способна извлекать не только базовую информацию (NAP), но и важные атрибуты услуг (например, наличие доставки, тип кухни) из визуальных данных [0073].
  5. Важность свежести изображений: Система учитывает возраст изображений при оценке достоверности извлеченных данных [0065], подчеркивая необходимость регулярного обновления фотографий в профиле бизнеса.
  6. Комплексный анализ с помощью SfM: Использование технологии SfM позволяет Google сопоставлять данные из множества разных источников (разные фото разных пользователей), повышая точность верификации и затрудняя манипуляции с изображениями [0055].

Практика

Best practices (это мы делаем)

  • Обеспечение видимости ключевой информации в физическом мире: Убедитесь, что название бизнеса, адрес (номер дома), часы работы и ключевые услуги четко видны на фасаде, вывеске или входной двери. Эта информация должна быть доступна для съемки камерами Street View и пользователями.
  • Оптимизация визуального контента в GBP: Регулярно загружать высококачественные и четкие фотографии экстерьера и интерьера, которые подтверждают ключевые атрибуты бизнеса. Примеры: фото входа с актуальными часами работы, фото вывески с адресом, фото, подтверждающие услуги (например, стикер «Доставка»).
  • Обеспечение консистентности данных (Online-to-Offline): Убедиться, что информация на физических вывесках точно соответствует данным, указанным онлайн (в GBP и на сайте). Google использует VVM для перекрестной проверки и валидации.
  • Стимулирование пользовательского контента (UGC): Поощряйте клиентов оставлять отзывы с актуальными фотографиями [0049]. Большое количество свежих изображений повышает способность Google верифицировать данные о POI.
  • Мониторинг изображений и загрузка интерьеров: Регулярно проверяйте изображения, связанные с вашим бизнесом. Загружайте фото интерьеров, меню, внутренних указателей, так как система может верифицировать данные в труднодоступных местах [0079].

Worst practices (это делать не надо)

  • Размещение ключевой информации там, где её не видно: Использование мелкого шрифта, отсутствие номера дома на фасаде или нечитаемые вывески затрудняют извлечение VVM с помощью OCR.
  • Игнорирование устаревших изображений: Если на старых фото или панорамах Street View видна неактуальная информация, Google может использовать её как VVM. Необходимо загружать свежие фото и пытаться обновить панорамы.
  • Несоответствие данных: Наличие данных в GBP, которые противоречат видимым вывескам на фотографиях. Это подрывает доверие системы к POI.
  • Манипуляции с изображениями: Попытки загрузить отредактированные изображения для «подтверждения» ложных фактов рискованны из-за использования Google технологии SfM для сопоставления данных из разных источников и выявления аномалий [0055].

Стратегическое значение

Этот патент подчеркивает стратегическое движение Google к использованию реального мира как источника истины (Ground Truth), извлекаемого с помощью визуального ИИ. Для Local SEO это означает снижение зависимости от данных, предоставленных владельцем, и переход к модели автоматической верификации. Стратегия локального SEO должна включать аудит физической видимости ключевой информации и активное управление визуальным контентом в GBP как неотъемлемую часть работы над достоверностью данных и E-E-A-T.

Практические примеры

Сценарий 1: Верификация часов работы

  1. Ситуация: Владелец бизнеса обновил часы работы в GBP, но в поиске отображаются старые данные.
  2. Применение патента: Владелец загружает свежую фотографию входа с четкой табличкой новых часов работы. Google (с помощью OCR) извлекает эти часы как visually-verifiable metadata (VVM).
  3. Результат: Система приоритизирует VVM как более свежий и достоверный источник [0065]. При запросе пользователя Google показывает новые данные и может предоставить аннотированное изображение (увеличив табличку на фото) для подтверждения.

Сценарий 2: Подтверждение атрибутов услуг

  1. Запрос: «Тайский ресторан с бесплатной доставкой».
  2. Применение патента: Google находит ресторан, у которого в базе есть изображение вывески, содержащее текст «Thai Food» и «Free Delivery» (извлечено через OCR) [0073].
  3. Результат: В результатах поиска Google может показать это изображение и выделить (аннотировать) этот текст, подтверждая, что ресторан соответствует обоим критериям запроса на основе визуальных доказательств (VVM).

Вопросы и ответы

Что такое «визуально проверяемые метаданные» (Visually-Verifiable Metadata, VVM)?

Это данные, извлеченные непосредственно из содержания изображения (например, текст через OCR или распознанный объект), которые можно подтвердить, посмотрев на это изображение. Например, если система считала часы работы с фотографии двери магазина, эти часы являются VVM. Google может показать эту фотографию и выделить на ней табличку для подтверждения [0060].

Влияет ли наличие VVM на ранжирование в локальном поиске?

Да, патент указывает, что visually-verifiable metadata могут быть приоритизированы по сравнению с данными без визуального подтверждения [0065]. Это повышает уверенность (confidence score) системы в точности информации. Также упоминается, что наличие визуальной верификации может использоваться при ранжировании результатов [0079]. Это делает VVM важным фактором для Local SEO.

Какие источники изображений использует Google для VVM?

Патент упоминает широкий спектр: панорамы улиц (Street View), спутниковые снимки, изображения, загруженные пользователями (UGC), изображения, полученные через веб-краулинг, а также предоставленные владельцами POI (через GBP) [0038], [0049]. Важны все доступные визуальные данные, включая данные сенсоров типа LiDAR [0043].

Что такое Structure-from-Motion (SfM) и как он используется?

SfM — это технология компьютерного зрения, которая позволяет восстановить трехмерную сцену по набору фотографий. Google использует её для точного определения местоположения съемки и сопоставления одного и того же объекта (например, вывески), снятого с разных ракурсов, в разное время и разными пользователями [0055]. Это повышает точность верификации и помогает бороться с манипуляциями.

Как этот патент влияет на работу с Google Business Profile (GBP)?

Влияние критическое. Это подчеркивает необходимость загрузки качественных, четких и актуальных фотографий, которые подтверждают ключевую информацию о бизнесе (адрес, часы работы, название, услуги). Управление визуальным контентом в GBP становится ключевым элементом верификации данных о бизнесе.

Имеет ли значение свежесть фотографий?

Да, имеет большое значение. Патент прямо указывает, что система учитывает возраст VVM при приоритизации. Более свежие визуальные доказательства предпочтительнее старых, особенно если информация о месте часто меняется [0065]. Это требует регулярного обновления фотоконтента в GBP.

Как обеспечить, чтобы Google смог извлечь VVM о моем бизнесе?

Нужно работать над физической видимостью информации и качеством изображений. Убедитесь, что вывески четкие, номер дома крупный и хорошо виден с улицы, а табличка с часами работы актуальна и хорошо освещена. Чем проще человеку прочитать информацию на фото, тем проще Google её извлечь с помощью OCR.

Что делать, если на фотографиях моего бизнеса видна устаревшая информация?

Это проблема, так как Google может извлечь устаревшие данные как VVM. Необходимо загрузить новые фотографии с актуальной информацией, которые должны получить приоритет за счет свежести. Если устаревшая информация видна на Street View, стоит проверить возможность запроса на обновление панорам или загрузить собственные актуальные панорамы.

Что важнее: данные, указанные в GBP, или данные с фотографий (VVM)?

Они должны совпадать. Однако при конфликте патент предполагает, что VVM могут иметь приоритет [0065], так как они считаются более надежным доказательством (Ground Truth). Ваша задача как SEO-специалиста — обеспечить полное соответствие между данными в GBP, на сайте и на физических вывесках/фотографиях.

Применяется ли эта технология только к бизнесам?

Нет. Патент определяет POI (Points of Interest) очень широко. Это могут быть бизнесы, жилые дома, парки, достопримечательности, дорожные знаки, названия улиц и любые другие объекты реального мира [0035]. Технология может использоваться для верификации любой информации, связанной с этими объектами.

Похожие патенты

Как Google автоматически распознает и связывает отсканированные книги с их библиографическими данными (ISBN, автор, название)
Патент описывает инфраструктурный процесс Google для оцифровки печатных изданий (например, Google Books). Система сканирует документ, ищет идентификаторы (ISBN, ISSN) на странице авторских прав или в штрихкоде, сверяет их с базами данных метаданных и автоматически связывает текст документа с его библиографическим описанием для последующего поиска.
  • US8495061B1
  • 2013-07-23
  • Индексация

Как Google использует визуальные цитаты и обратную связь для генерации и уточнения ответов в мультимодальном поиске
Google генерирует ответы на мультимодальные запросы (изображение + текст), находя визуально похожие изображения в интернете и используя текст с их исходных страниц как основу для LLM. Система показывает эти изображения как «визуальные цитаты» для подтверждения ответа и позволяет пользователям исключать нерелевантные источники, чтобы мгновенно уточнить сгенерированный результат.
  • US20240378236A1
  • 2024-11-14
  • Мультимедиа

  • EEAT и качество

  • Ссылки

Как Google использует визуальное сходство для связывания изображений и видео, кластеризации выдачи и обогащения метаданных
Google анализирует визуальное содержимое изображений и ключевых кадров видео для выявления сходств. Это позволяет связывать разнотипный контент, даже если у него мало текстовых данных. Система использует эти связи для переноса метаданных (например, ключевых слов или геопозиции) от одного ресурса к другому, а также для кластеризации и смешивания изображений и видео в результатах поиска.
  • US9652462B2
  • 2017-05-16
  • Мультимедиа

  • SERP

  • Семантика и интент

Как Google разбирает визуальные запросы, отправляя их одновременно в несколько специализированных поисковых систем (OCR, распознавание лиц, объектов)
Google использует архитектуру для обработки визуальных запросов (изображений), которая одновременно отправляет изображение в несколько параллельных поисковых систем (распознавание текста, лиц, объектов, штрихкодов). Система агрегирует результаты, часто создавая интерактивный документ, где разные части изображения связаны с соответствующими результатами поиска, и использует обратную связь для обучения.
  • US9135277B2
  • 2015-09-15
  • Мультимедиа

  • SERP

Как Google отслеживает клики (CTR) на сторонних сайтах и защищает свои данные от парсинга в API и виджетах
Google использует двухэтапный метод доставки результатов поиска через API и виджеты (например, Google Maps) на сторонних сайтах. Сначала отображается только базовое описание результата и присваивается уникальный защищенный токен. Полный контент загружается только после клика пользователя и валидации токена. Это защищает данные Google от парсинга третьими сторонами и позволяет точно измерять CTR, который используется как сигнал ранжирования для географических запросов.
  • US9177058B2
  • 2015-11-03
  • Поведенческие сигналы

  • SERP

  • Local SEO

Популярные патенты

Как Google использует тематические списки предпочтительных и нежелательных сайтов (Editorial Opinion) для корректировки ранжирования
Google может заранее определять "Темы запросов" (Query Themes) и назначать для них списки "Предпочтительных" (Favored) и "Нежелательных" (Non-Favored) источников. Если запрос пользователя соответствует теме, система корректирует ранжирование: повышает предпочтительные источники и понижает нежелательные, используя "Параметр редакторского мнения" (Editorial Opinion Parameter).
  • US7096214B1
  • 2006-08-22
  • EEAT и качество

  • Антиспам

  • SERP

Как Google использует историю местоположений для определения физической активности пользователя и гиперперсонализации поиска
Google анализирует историю перемещений пользователя (местоположения и скорость), чтобы определить его текущую физическую активность (например, поход, шоппинг) и способ передвижения (например, пешком, на автобусе). Эта информация используется для радикальной персонализации: система корректирует ранжирование результатов, изменяет запросы и формирует подсказки, чтобы они соответствовали контексту реальных действий пользователя.
  • US20150006290A1
  • 2015-01-01
  • Поведенческие сигналы

  • Персонализация

  • Local SEO

Как Google персонализирует поисковые подсказки (Autocomplete) на основе недавно просмотренного медиаконтента
Google использует информацию о недавно потребленном пользователем медиаконтенте (видео, аудио, книги, игры) для персонализации поисковых подсказок. Система извлекает атрибуты (аспекты) из этого контента, такие как названия, имена актеров или артистов, и повышает в ранжировании те подсказки, которые соответствуют этим атрибутам. Влияние потребления медиа на подсказки зависит от времени, прошедшего с момента просмотра, типа контента и того, делился ли им пользователь.
  • US9268880B2
  • 2016-02-23
  • Персонализация

  • Семантика и интент

  • Мультимедиа

Как Google использует машинное обучение и данные о длительности сессий для выявления битых Deep Links в мобильных приложениях
Google использует систему машинного обучения для анализа того, как долго пользователи взаимодействуют с контентом в приложении после перехода по Deep Link (Presentation Duration). Анализируя распределение этих временных интервалов, система классифицирует ссылку как рабочую или битую без необходимости прямого сканирования контента. Это позволяет Google удалять неработающие ссылки из индекса.
  • US10628511B2
  • 2020-04-21
  • Ссылки

  • Индексация

  • Поведенческие сигналы

Как Google выбирает Sitelinks, анализируя визуальное расположение и структуру DOM навигационных меню
Google использует механизм для генерации Sitelinks путем рендеринга страницы и анализа DOM-структуры. Система определяет визуальное расположение (координаты X, Y) гиперссылок и группирует их на основе визуальной близости и общих родительских элементов. Sitelinks выбираются исключительно из доминирующей группы (например, главного меню), а ссылки из других групп игнорируются.
  • US9053177B1
  • 2015-06-09
  • SERP

  • Ссылки

  • Структура сайта

Как Google оценивает качество изображений, комбинируя визуальные характеристики, распознанный контент и социальные сигналы для ранжирования
Google использует систему для автоматического определения качества изображений, анализируя три класса характеристик: техническое качество (резкость, экспозиция), содержание (объекты, лица, ландшафты) и социальную популярность (просмотры, шеры, рейтинги). Система присваивает баллы этим характеристикам, взвешивает их (учитывая репутацию пользователей, оставивших отзывы) и формирует общий рейтинг для выбора лучших изображений.
  • US9858295B2
  • 2018-01-02
  • Мультимедиа

  • Поведенческие сигналы

  • SERP

Как Google использует данные веб-поиска и клики пользователей для классификации бизнесов и построения иерархии категорий
Google анализирует логи веб-поиска (введенные ключевые слова и последующие клики по результатам), чтобы понять, как пользователи интуитивно классифицируют бизнесы. Эти данные используются для автоматического построения динамической иерархической структуры категорий. Эта структура затем применяется для улучшения точности поиска, в частности, для оптимизации моделей распознавания речи в голосовых системах.
  • US7840407B2
  • 2010-11-23
  • Поведенческие сигналы

  • Семантика и интент

  • Структура сайта

Как Google анализирует текст вокруг ссылки (Rare Words) для борьбы со спамом и определения шаблонных ссылок
Google использует механизм для оценки качества ссылок, выходящий за рамки анкорного текста. Система анализирует редкие слова (rare words) в тексте, непосредственно окружающем ссылку, чтобы определить её уникальный контекст. Ранжирование улучшается при наличии разнообразия этих контекстов. Ссылки с повторяющимся контекстом (спам, Google-бомбинг или шаблонные/сквозные ссылки) идентифицируются и дисконтируются.
  • US8577893B1
  • 2013-11-05
  • Антиспам

  • Ссылки

  • Семантика и интент

Как Google использует анализ аномалий в показах и кликах для выявления фейковых локальных бизнес-листингов (Map Spam)
Google анализирует статистику взаимодействий (кликов) для групп связанных бизнес-листингов (Common Business). Система вычисляет статистически нормальный уровень активности и устанавливает порог (Anomaly Detection Threshold). Резкий всплеск активности выше этого порога (например, на два стандартных отклонения) сигнализирует о наличии фейковых или спамных листингов, созданных для манипуляции локальной выдачей.
  • US20150154610A1
  • 2015-06-04
  • Local SEO

  • Антиспам

  • Поведенческие сигналы

Как Google использует генеративный ИИ для создания чата с конкретным сайтом прямо в поисковой выдаче и предоставления глубинных ссылок
Google патентует механизм, позволяющий пользователям взаимодействовать с конкретным результатом поиска через интерфейс чата (prompt input interface) прямо на странице выдачи. Искусственный интеллект анализирует запрос пользователя и его последующий промпт, определяет намерение (поиск информации, действие или навигация) и предоставляет глубинные ссылки (deep links) на конкретные внутренние страницы этого же домена в виде conversational response.
  • US12353458B2
  • 2025-07-08
  • Ссылки

  • Семантика и интент

  • SERP

seohardcore