SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google использует текст внутри изображений (например, Street View) для индексации и ранжирования в локальном и имиджевом поиске

USING EXTRACTED IMAGE TEXT (Использование извлеченного текста из изображений)
  • US8098934B2
  • Google LLC
  • 2006-06-29
  • 2012-01-17
  • Индексация
  • Local SEO
  • Мультимедиа
  • Техническое SEO
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google извлекает текст непосредственно из изображений (например, названия улиц, вывески бизнесов в Street View), используя передовые методы OCR и улучшения качества (Superresolution). Этот текст ассоциируется с точными географическими координатами (GPS). Это позволяет Google индексировать информацию из реального мира и использовать её для ответа на локальные поисковые запросы и повышения релевантности поиска по картинкам.

Описание

Какую проблему решает

Патент решает проблему индексации информации из реального мира, которая видна только на изображениях, но не представлена в текстовом формате (например, названия магазинов на вывесках, часы работы, адреса на зданиях). Он также решает техническую задачу точного распознавания текста (OCR) в естественных сценах (например, на городских улицах), где качество изображения часто низкое, присутствуют искажения, тени и препятствия.

Что запатентовано

Запатентована система для извлечения текста из изображений, его индексации и использования в поиске. Ключевым элементом изобретения является ассоциация извлеченного текста с точными данными о географическом местоположении (Geographic Location Data), где было сделано изображение. Система включает методы для обнаружения текста, повышения его читаемости (например, с помощью Superresolution) и последующего распознавания символов (OCR) для использования в локальном поиске и поиске по картинкам.

Как это работает

Система работает в несколько этапов:

  • Сбор данных: Сбор изображений (например, панорамных снимков улиц) вместе с точными GPS-координатами и, опционально, данными о расстоянии до объектов (3D Range Data).
  • Обнаружение текста: Использование классификатора (Classifier) для идентификации областей в изображении, которые могут содержать текст (Candidate Text Regions).
  • Улучшение качества: Применение технологии Superresolution, которая объединяет несколько кадров одной и той же сцены для создания единого изображения текста с более высоким разрешением.
  • Распознавание (OCR): Извлечение текста из улучшенных областей.
  • Индексация: Индексация извлеченного текста в связке с географическими координатами изображения.
  • Поиск: Использование этого индекса для поиска изображений или локаций по ключевым словам, найденным внутри самих изображений.

Актуальность для SEO

Критически высокая. Описанная технология является фундаментальной для работы Google Street View и Google Maps. Способность Google понимать физический мир путем «чтения» вывесок, знаков и адресов напрямую влияет на качество и полноту данных в Локальном Поиске. Хотя методы OCR и обработки изображений с момента подачи патента усовершенствовались, заложенные здесь принципы остаются основой систем визуального позиционирования и локальной индексации Google.

Важность для SEO

Патент имеет критическое значение (9/10) для Локального SEO и Поиска по Картинкам. Для Локального SEO это означает, что физическая видимость бизнеса (вывески, адрес) напрямую конвертируется в цифровые сигналы индексации и ранжирования. Для Поиска по Картинкам это подтверждает, что текст, присутствующий внутри изображения, является ключевым фактором релевантности, выходящим за рамки alt-text и окружающего контента.

Детальный разбор

Термины и определения

3D Range Data (Данные о трехмерном диапазоне)
Данные о расстоянии от камеры до объектов на изображении, часто получаемые с помощью LIDAR или стереоскопических сенсоров. Используются для определения планарности (плоскости) поверхностей и фильтрации ложных срабатываний при детекции текста.
Candidate Text Region (Кандидатная текстовая область)
Область изображения, идентифицированная классификатором как потенциально содержащая текст.
Classifier (Классификатор)
Модель (часто машинного обучения), обученная отличать текстовые элементы от нетекстовых на основе анализа признаков изображения (например, краев, углов, градиентов).
Geographic Location Data (Данные о географическом местоположении)
Точные координаты (например, GPS), связанные с местом, где было сделано изображение. Критически важны для индексации извлеченного текста в контексте локального поиска.
Image Text (Текст изображения)
Текст, физически присутствующий в сцене и зафиксированный на изображении (например, вывеска).
Normalization (Нормализация)
Процесс предобработки изображения для улучшения контраста, особенно в областях с плохим освещением или тенями.
OCR (Optical Character Recognition - Оптическое распознавание символов)
Процесс преобразования пикселей, представляющих текст на изображении, в машиночитаемый текст.
Superresolution (Сверхвысокое разрешение)
Технология улучшения изображения, которая объединяет несколько снимков низкого разрешения одной и той же сцены (сделанных с небольшим смещением) для создания одного изображения с более высоким разрешением.

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Определяет основную цель изобретения — использование текста из изображений в контексте геолокации.

  1. Система получает изображение и данные, идентифицирующие географическое местоположение, где изображение было снято.
  2. Текст извлекается из изображения.
  3. Извлеченный текст индексируется вместе с данными о географическом местоположении.
  4. Система получает запрос и использует индексированный текст и данные о местоположении, чтобы определить, что изображение удовлетворяет запросу.
  5. Система предоставляет поисковые результаты, релевантные географическому местоположению и изображению.

Ядро изобретения — это не просто OCR, а индексация результатов OCR в привязке к точной геолокации для использования в поиске.

Claim 2 (Зависимый от 1): Детализирует технический процесс извлечения текста.

  1. Изображение делится на регионы.
  2. В каждом регионе детектируются признаки (features).
  3. На основе признаков определяется, является ли регион Candidate Text Region.
  4. Кандидатные регионы улучшаются (enhancing) для создания улучшенного изображения.
  5. Выполняется OCR на улучшенном изображении.

Этот пункт описывает стандартный пайплайн для OCR в естественных сценах, включая критически важный этап улучшения качества перед распознаванием.

Claim 6 (Зависимый от 1): Уточняет применение в картографических сервисах.

  1. Система предоставляет карту географического местоположения, связанного с изображением.

Подтверждает интеграцию этой технологии с сервисами типа Google Maps.

Claims 7, 8, 9 (Зависимые от 1): Описывают монетизацию технологии.

  1. Система предоставляет одно или несколько рекламных объявлений вместе с изображением (Claim 7).
  2. Реклама определяется на основе содержания запроса (Claim 8) или на основе извлеченного текста из представленного изображения (Claim 9).

Извлеченный текст может служить триггером для показа релевантной рекламы.

Где и как применяется

Изобретение затрагивает несколько ключевых этапов поисковой архитектуры, связывая сбор данных с индексацией и ранжированием.

CRAWLING – Сканирование и Сбор данных
На этом этапе происходит физический сбор данных. Система собирает изображения (например, с помощью автомобилей Street View), одновременно фиксируя точные Geographic Location Data (GPS) и, возможно, 3D Range Data (LIDAR).

INDEXING – Индексирование и извлечение признаков
Это основной этап применения патента. Полученные изображения обрабатываются: текст обнаруживается, улучшается (Superresolution) и распознается (OCR). Результат — извлеченный текст — сохраняется в индексе в строгой привязке к изображению и его географическим координатам.

RANKING / METASEARCH – Ранжирование / Метапоиск
Когда пользователь вводит запрос (особенно локальный или в поиске по картинкам), система обращается к индексу, созданному на предыдущем этапе. Если ключевые слова запроса совпадают с текстом, извлеченным из изображения, это изображение или связанная с ним локация могут быть показаны в результатах поиска (например, в Google Maps или Image Search).

Входные данные:

  • Цифровые изображения (панорамные, фото, видеокадры).
  • Geographic Location Data (GPS координаты).
  • 3D Range Data (LIDAR, опционально).
  • Внешние базы данных для верификации (например, справочники бизнесов, опционально).

Выходные данные:

  • Индекс, содержащий машиночитаемый текст, связанный с конкретными изображениями и географическими координатами.

На что влияет

  • Конкретные типы контента и ниши: Критическое влияние на Локальный Поиск (Local SEO) и Google Maps. Влияет на все бизнесы с физическими точками (ритейл, рестораны, услуги). Также оказывает сильное влияние на Поиск по Картинкам (Image Search).
  • Специфические запросы: Локальные запросы (например, «ресторан рядом со мной», поиск по названию бизнеса, поиск по адресу), а также запросы в поиске по картинкам, где объект можно идентифицировать по тексту на нем (например, поиск товара по фото упаковки).

Когда применяется

  • Триггеры активации (Офлайн): Алгоритм активируется при обработке новых или обновленных изображений, поступающих в систему (например, после обновления данных Street View).
  • Триггеры активации (Онлайн): Индекс, созданный алгоритмом, используется каждый раз, когда выполняется локальный поиск или поиск по картинкам.

Пошаговый алгоритм

Процесс А: Сбор и обработка изображений (Офлайн)

  1. Сбор данных: Получение изображений сцены (например, улицы) с одновременной записью GPS-координат и, опционально, 3D-данных о расстоянии. Для технологии Superresolution требуется несколько кадров одной и той же сцены с небольшим смещением.
  2. Предварительная обработка изображений: Применение нормализации или HDR для улучшения контрастности текста, особенно в условиях плохого освещения. Коррекция искажений перспективы.
  3. Обнаружение текста: Использование обученного классификатора для анализа признаков изображения (края, углы, градиенты) и идентификации Candidate Text Regions.
  4. Фильтрация ложных срабатываний: Использование 3D Range Data для удаления нетекстовых областей. Например, система может требовать, чтобы текст находился на плоской поверхности (планарность) и на определенном расстоянии от камеры.
  5. Улучшение текстовых областей (Superresolution):
    1. Выбор нескольких изображений, содержащих одну и ту же кандидатную текстовую область.
    2. Масштабирование (Supersampling) каждой области.
    3. Выравнивание всех версий области на сетке высокого разрешения с точностью до субпикселя (например, с помощью block matching).
    4. Комбинирование выровненных пикселей (например, через медианное значение) для создания единого изображения сверхвысокого разрешения.
  6. Распознавание символов (OCR): Применение OCR к улучшенной текстовой области. Система может использовать как нормальную, так и инвертированную версию изображения для лучшего распознавания светлого текста на темном фоне и наоборот.
  7. Постобработка и Верификация: Фильтрация результатов OCR для удаления бессмысленных результатов. Возможно использование внешних баз данных (например, справочников бизнесов в данном районе) для ограничения и верификации распознанного текста.
  8. Индексация: Сохранение распознанного текста в поисковом индексе в ассоциации с ID изображения и его точными географическими координатами.

Процесс Б: Обработка поискового запроса (Онлайн)

  1. Получение запроса: Пользователь вводит запрос (например, название бизнеса или ключевое слово).
  2. Поиск по индексу: Система ищет совпадения в индексе, включая текст, извлеченный из изображений.
  3. Определение релевантности: Оценка релевантности найденных изображений или локаций на основе совпадения текста и географического контекста запроса.
  4. Предоставление результатов: Отображение релевантных изображений (в Image Search) или локаций (в Google Maps/Local Pack), а также, возможно, релевантной рекламы.

Какие данные и как использует

Данные на входе

  • Мультимедиа факторы: Цифровые изображения. Критически важны данные пикселей, их интенсивность, цвет, градиенты.
  • Географические факторы: Точные GPS-координаты места съемки. Это ключевой компонент для локальной индексации.
  • Технические факторы: 3D Range Data (данные LIDAR или стерео-сенсоров). Используются для понимания геометрии сцены и расстояния до объектов.
  • Внешние данные: Упоминается возможность использования баз данных (например, «желтых страниц») для помощи в распознавании (Database Assisted OCR).

Какие метрики используются и как они считаются

Патент не детализирует конкретные формулы, но описывает используемые методы и метрики:

  • Метрики Классификатора: Оценка вероятности наличия текста в регионе на основе анализа признаков (горизонтальные/вертикальные производные, дисперсия, гистограммы интенсивности и градиента, наличие углов и краев (Canny edgels)).
  • Планарность (Planarity): Метрика, вычисляемая на основе 3D Range Data, определяющая, лежит ли кандидатная текстовая область на плоской поверхности.
  • Метрики выравнивания Superresolution: Оценка точности совмещения нескольких изображений на сетке высокого разрешения (например, точность block matching).
  • Оценки OCR (OCR Confidence Scores): Вероятностные оценки точности распознавания символов и слов.

Выводы

  1. Конвергенция физического и цифрового мира: Google активно использует изображения реального мира как источник индексируемых данных. Физическое присутствие (вывески, знаки) напрямую транслируется в цифровые сигналы.
  2. Критичность геолокации: Извлечение текста само по себе не является главной целью. Ключевая инновация — это индексация текста в строгой привязке к точным географическим координатам (GPS), что делает эти данные применимыми в Локальном Поиске.
  3. Продвинутая обработка изображений для повышения точности: Google использует сложные методы, такие как Superresolution (объединение нескольких кадров) и 3D Range Data (для фильтрации шума), чтобы справиться с низким качеством текста в естественных сценах.
  4. Текст внутри изображения как фактор ранжирования: Патент подтверждает, что текст, видимый на изображении, является индексируемым контентом и используется для определения релевантности как в поиске по картинкам, так и в локальном поиске.
  5. Использование контекста для улучшения OCR: Система может использовать внешний контекст (например, знание о типах бизнесов в определенном районе из справочников) для повышения точности распознавания текста.

Практика

Best practices (это мы делаем)

  • Оптимизация физической видимости (Local SEO): Убедитесь, что вывески бизнеса, адрес и часы работы четкие, контрастные и не загорожены препятствиями (деревьями, столбами). Это критически важно для того, чтобы системы Google (например, Street View) могли корректно распознать и проиндексировать эту информацию.
  • Оптимизация изображений на сайте (Image SEO): При размещении изображений товаров, инфографики или фотографий локации на сайте убедитесь, что важный текст внутри изображения читаем. Google может извлекать этот текст и использовать его как сигнал релевантности.
  • Согласованность данных (NAP Consistency): Убедитесь, что информация на физических вывесках точно соответствует информации, указанной в Google Business Profile и на сайте. Google может использовать визуальные данные для верификации текстовой информации.
  • Использование текста в изображениях для подтверждения сущностей: Включайте в изображения на сайте элементы, подтверждающие бренд или ключевые характеристики продукта (например, логотип, название модели на самом продукте), так как они могут быть распознаны и проиндексированы.

Worst practices (это делать не надо)

  • Игнорирование качества вывесок: Использование сложных шрифтов, низкого контраста или размещение вывесок в плохо освещенных/загороженных местах снижает вероятность того, что Google сможет прочитать и использовать эту информацию.
  • Предположение, что текст в графике не читается: Размещение важной информации исключительно в виде графики без текстового дублирования рискованно. Хотя Google и может прочитать этот текст, полагаться только на это не стоит; однако следует понимать, что этот текст может быть прочитан и проиндексирован.
  • Манипуляции с текстом на изображениях (Keyword Stuffing): Попытки «наполнить» изображения ключевыми словами (например, размещение неестественного текста на фоне фотографии) могут быть распознаны как спам, особенно если текст не соответствует визуальному контексту.

Стратегическое значение

Этот патент подчеркивает стратегию Google по индексации физического мира для улучшения локального поиска. Для SEO-специалистов это означает, что оптимизация больше не ограничивается только веб-сайтом и ссылками; она распространяется на то, как бизнес представлен в реальном мире и как эта информация фиксируется системами Google. Это подтверждает важность визуальных данных как источника достоверной информации о локальных сущностях и укрепляет связь между онлайн и офлайн присутствием бренда.

Практические примеры

Сценарий 1: Верификация локального бизнеса (Local SEO)

  1. Ситуация: В Google Business Profile зарегистрирован новый бизнес «Аптека Ромашка».
  2. Действие Google: Система Google анализирует данные Street View для указанного адреса.
  3. Применение патента: Используя OCR и Superresolution, система извлекает текст «Аптека Ромашка» и номер дома с вывески на изображении.
  4. Результат: Визуальные данные подтверждают существование и название бизнеса. Это повышает доверие к профилю GBP и улучшает его позиции в локальном поиске по запросам «аптека рядом».

Сценарий 2: Поиск по картинкам (Image SEO)

  1. Ситуация: Пользователь ищет в Google Images «Кроссовки Nike Air Max 270 черные».
  2. Действие Google: Система ранжирует изображения из интернета.
  3. Применение патента: Система отдает предпочтение изображениям, где не только alt-text соответствует запросу, но и где технология OCR смогла распознать текст «Air Max 270» на самом кроссовке или на коробке, изображенной на фото.
  4. Результат: Изображения, содержащие визуально подтвержденный текст, ранжируются выше, так как они считаются более релевантными запросу.

Вопросы и ответы

Как этот патент влияет на Локальное SEO (Local SEO)?

Влияние фундаментальное. Патент описывает, как Google конвертирует физические вывески и знаки в индексируемые цифровые данные, привязанные к геолокации. Это означает, что Google использует изображения (например, из Street View) для обнаружения новых бизнесов, верификации существующих (название, адрес, телефон – NAP) и даже для извлечения атрибутов (например, часы работы). Четкая и читаемая вывеска становится прямым фактором индексации в локальном поиске.

Что такое Superresolution и почему это важно?

Superresolution — это технология, которая позволяет Google объединять несколько изображений низкого качества (например, кадры видео, снятые с движущегося автомобиля) в одно изображение высокого разрешения. Это критически важно, потому что текст на уличных знаках часто бывает размытым, маленьким или искаженным. Superresolution значительно повышает точность OCR, позволяя распознавать текст, который иначе был бы нечитаем.

Означает ли это, что Google читает весь текст на изображениях, которые мы загружаем на сайт?

Да, патент подтверждает, что Google разработал и использует технологию для извлечения текста из изображений для целей индексации и поиска. Если на вашем сайте есть изображения товаров, инфографика или фотографии офиса, Google может извлечь из них текст и использовать его для определения релевантности страницы или самого изображения. Поэтому важно оптимизировать читаемость текста внутри изображений.

Как используются данные 3D Range Data (LIDAR)?

Данные о расстоянии (3D Range Data) используются для улучшения точности обнаружения текста. Поскольку текст обычно находится на плоских поверхностях (стены, знаки), система может отфильтровать ложные срабатывания на неровных объектах (например, листве деревьев). Также эти данные помогают определить расстояние до текста, что позволяет сфокусироваться на объектах определенного типа (например, отличать вывеску на здании от дорожного знака на переднем плане).

Стоит ли теперь размещать ключевые слова внутри изображений на сайте?

Размещать ключевые слова следует только в том случае, если это естественно и полезно для пользователя (например, название продукта на его фотографии, заголовок на инфографике). Система может распознать этот текст и использовать его как сигнал релевантности. Однако попытки искусственного наполнения изображений ключевыми словами (keyword stuffing) могут быть расценены как спам и привести к негативным последствиям.

Как Google обеспечивает точность распознавания названий бизнесов?

Помимо улучшения качества изображения (Superresolution), патент упоминает возможность использования внешних баз данных для помощи в OCR (Database Assisted OCR). Например, если система знает, какие бизнесы зарегистрированы в определенном районе (из справочников или GBP), она может сверять результаты распознавания с этими данными, что значительно повышает точность идентификации названий.

Влияет ли этот патент на ранжирование рекламы?

Да, напрямую. В патенте (Claims 7-9) указано, что система может показывать рекламу вместе с найденным изображением или локацией. Причем реклама может быть таргетирована как на основе исходного запроса пользователя, так и на основе текста, который был извлечен непосредственно из показанного изображения. Это открывает возможности для гиперлокального рекламного таргетинга.

Если моя вывеска плохо видна со стороны дороги, повлияет ли это на мое Локальное SEO?

Да, с высокой вероятностью. Если системы Google (Street View) не смогут четко зафиксировать и распознать текст на вашей вывеске из-за препятствий, плохого освещения или низкого качества самой вывески, вы потеряете важный сигнал подтверждения вашего местоположения и названия. Это может снизить уверенность Google в ваших данных и негативно повлиять на локальное ранжирование.

Применяется ли эта технология только к уличным сценам?

Хотя уличные сцены (Street View) являются основным примером, патент описывает применение технологии шире. Упоминается возможность индексации товаров внутри магазинов или экспонатов в музеях путем фотографирования и распознавания текста на этикетках и упаковках. Технология применима к любому набору изображений, где текст необходимо извлечь и проиндексировать.

Насколько важен этот патент, учитывая его возраст (подача в 2006 году)?

Несмотря на возраст, патент остается критически важным, так как он заложил фундамент для современных систем визуальной индексации Google. Технологии обработки изображений и OCR с тех пор значительно продвинулись (например, с использованием глубокого обучения), но базовый принцип — извлечение текста из изображений и его привязка к геолокации для использования в поиске — остается неизменным и центральным для продуктов Google Maps и Local Search.

Похожие патенты

Как Google комбинирует визуальные признаки и распознанный текст (OCR) внутри изображения для улучшения визуального поиска
Google использует технологию мультимодального поиска, которая анализирует как визуальные характеристики захваченного изображения (например, с камеры телефона), так и текст, распознанный внутри него (OCR). Комбинация этих двух типов данных позволяет точнее идентифицировать электронный оригинал изображения, что критически важно для работы систем визуального поиска (например, Google Lens).
  • US9323784B2
  • 2016-04-26
  • Мультимедиа

  • Индексация

  • Семантика и интент

Как Google использует гибридную классификацию и OCR для извлечения ответов из личных фотографий пользователя
Google использует систему для ответа на текстовые запросы (например, «Сколько я потратил в ресторане?») путем анализа личной библиотеки изображений. Система предварительно классифицирует фотографии (например, чеки, меню, пейзажи), используя распознавание объектов и текста (OCR). Это позволяет быстро найти нужную информацию в релевантной категории и представить ответ в виде обрезанного изображения или аудиосообщения.
  • US10740400B2
  • 2020-08-11
  • Индексация

  • Мультимедиа

  • Семантика и интент

Как Google использует OCR и канонические документы для улучшения результатов визуального поиска
Google использует технологию визуального поиска для идентификации текста в изображениях (визуальных запросах). Система оценивает качество распознанного текста (OCR), находит соответствующие строки в своей базе канонических документов (например, веб-страниц или книг) и генерирует комбинированный результат. Этот результат может накладывать чистый текст или изображение из канонического источника поверх исходного визуального запроса, создавая «исправленную» версию изображения.
  • US9176986B2
  • 2015-11-03
  • Мультимедиа

  • Индексация

  • EEAT и качество

Как Google использует местоположение пользователя для улучшения распознавания текста на изображениях и поиска источника контента
Google использует географическое положение пользователя для выбора наиболее подходящей языковой модели при распознавании текста (OCR) на изображениях (визуальных запросах). Это позволяет системе учитывать региональные различия в языке (например, орфографию или терминологию) для более точной интерпретации контента. Цель — найти оригинальный канонический документ, соответствующий тексту на изображении.
  • US8805079B2
  • 2014-08-12
  • Мультиязычность

  • Local SEO

  • EEAT и качество

Как Google реализует функцию «Выделить и Искать» с интеллектуальным уточнением запроса на стороне клиента
Патент Google описывает клиентскую технологию, позволяющую пользователю выделить любой элемент на экране (текст или изображение) и мгновенно инициировать поиск. Система автоматически обрабатывает выделенное: применяет OCR к изображениям, дополняет частично выделенные слова и добавляет контекстные слова из окружающего контента для уточнения запроса перед его отправкой в поисковую систему.
  • US8838562B1
  • 2014-09-16
  • Семантика и интент

Популярные патенты

Как Google использует историю чтения новостных сайтов для определения географических интересов пользователя и персонализации выдачи
Google может определять географические интересы пользователя, анализируя местоположение издателей новостных сайтов, которые он посещал. Эта информация (Geo Signal) используется для корректировки ранжирования будущих поисковых запросов, повышая результаты, релевантные этим интересам, даже если пользователь физически находится в другом месте.
  • US20130246381A1
  • 2013-09-19
  • Персонализация

  • Поведенческие сигналы

  • SERP

Как Google масштабирует расчет кратчайших путей в графе ссылок от авторитетных сайтов («Seed Nodes»)
Патент описывает инфраструктуру Google для распределенного вычисления кратчайших путей в огромных графах, таких как веб-граф. Система позволяет эффективно и отказоустойчиво рассчитывать расстояние от любого узла до ближайших авторитетных «Seed Nodes». Это foundational технология, которая делает возможным применение алгоритмов ранжирования, основанных на анализе ссылочного графа и распространении авторитетности (например, типа TrustRank) в масштабах всего интернета.
  • US8825646B1
  • 2014-09-02
  • Ссылки

Как Google выбирает предлагаемые запросы, анализируя вероятность завершения поиска и коммерческую ценность
Google использует графовую модель для анализа поисковых сессий пользователей. Система определяет, какие уточняющие запросы чаще всего приводят к завершению поиска (становятся «финальным пунктом назначения»). Эти запросы считаются обладающими наибольшей «полезностью» (Utility) и предлагаются пользователю в качестве подсказок или связанных запросов. Система также учитывает коммерческий потенциал этих запросов и может показывать для них релевантные рекламные блоки.
  • US8751520B1
  • 2014-06-10
  • SERP

  • Поведенческие сигналы

  • Семантика и интент

Как Google использует клики и пропуски пользователей для оценки и корректировки правил близости терминов (Proximity Rules)
Google анализирует поведение пользователей для оценки эффективности правил близости (Proximity Rules), которые влияют на ранжирование в зависимости от расстояния между ключевыми словами на странице. Система отслеживает, кликают ли пользователи на результаты, где термины расположены далеко друг от друга, или пропускают их. На основе этих данных (Click Count, Skip Count) вычисляется оценка качества правила, что позволяет Google динамически адаптировать важность фактора близости.
  • US9146966B1
  • 2015-09-29
  • Поведенческие сигналы

  • SERP

Как Google использует генеративный ИИ для создания динамических и гиперперсонализированных бизнес-профилей
Google разрабатывает систему, которая заменяет статические бизнес-профили динамическими «курируемыми профилями», генерируемыми ИИ (например, LLM). Эти профили адаптируются в реальном времени под конкретного пользователя, учитывая его запрос, предпочтения, историю поиска и демографию, чтобы показать наиболее релевантный контент, продукты и описания бренда.
  • US20250054045A1
  • 2025-02-13
  • Персонализация

  • Поведенческие сигналы

  • Семантика и интент

Как Google выбирает сущность для Панели Знаний и решает, когда ее показывать, основываясь на топикальности SERP и CTR
Google использует этот механизм для решения двух задач: выбора наиболее релевантной сущности для Панели Знаний при неоднозначном запросе и определения необходимости показа самой панели. Система анализирует, насколько сущности соответствуют контенту топовых результатов поиска (Topicality Score). Показ панели активируется, если у органических результатов низкий CTR (что указывает на неудовлетворенность пользователей) или если у Google достаточно данных для ее заполнения.
  • US10922326B2
  • 2021-02-16
  • Knowledge Graph

  • SERP

  • Семантика и интент

Как Google использует контекст пользователя и интерактивное уточнение для обучения моделей поиска
Google может инициировать поиск пассивно, основываясь на контексте действий пользователя (например, чтении статьи или телефонном звонке). Система позволяет пользователю уточнить этот поиск, выбрав один из использованных критериев (например, тапнув на сущность в тексте), чтобы повысить его значимость. Реакция пользователя на уточненные результаты используется для машинного обучения и улучшения взвешивания критериев в будущих поисковых запросах.
  • US11568003B2
  • 2023-01-31
  • Семантика и интент

  • Персонализация

  • Поведенческие сигналы

Как Google интегрирует персональный и социальный контент (Email, посты друзей, календарь) в универсальную поисковую выдачу
Google использует этот механизм для глубокой персонализации поиска, интегрируя релевантный контент из личных источников пользователя (Gmail, Drive, Calendar) и от его социальных связей. Система индексирует этот контент с разрешения пользователя, ранжирует его с учетом социальных сигналов (Affinity) и адаптивно отображает в SERP, смешивая с публичными результатами.
  • US20150310100A1
  • 2015-10-29
  • Персонализация

  • Индексация

  • Поведенческие сигналы

Как Google использует историю поиска, поведение и многофакторные профили пользователей для персонализации поисковой выдачи
Google создает детальные профили пользователей на основе истории запросов, взаимодействия с результатами (клики, время просмотра) и анализа контента посещенных страниц. Эти профили (включающие интересы по терминам, категориям и ссылкам) используются для корректировки стандартных оценок ранжирования. Степень персонализации динамически регулируется уровнем уверенности системы в профиле (Confidence Score).
  • US9298777B2
  • 2016-03-29
  • Персонализация

  • Поведенческие сигналы

  • SERP

Как Google проверяет работоспособность Deep Links и обратную совместимость перед индексированием контента мобильных приложений
Google использует автоматизированную систему верификации для индексирования контента мобильных приложений. Перед добавлением в индекс система эмулирует запуск приложения по Deep Link, проверяя корректность загрузки, отсутствие ошибок и соответствие контента связанной веб-странице. Также система тестирует обратную совместимость ссылок при обновлениях приложения, гарантируя, что в поиск попадают только функциональные результаты.
  • US9645980B1
  • 2017-05-09
  • Индексация

  • Ссылки

  • Техническое SEO

seohardcore