SEO HARDCORE
  • Разборы патентов
    • Патенты Google
  • Скоро SEO инструменты
  • Скоро SEO аналитика
  • seohardcore
SEO HARDCORE
назад

Как Google идентифицирует сайты, поддерживающие удаление контента, и ускоряет обновление индекса после запроса на удаление

METHOD, ARCHITECTURE AND PLATFORM FOR CONTENT TAKEDOWN ON THE INTERNET (Метод, архитектура и платформа для удаления контента в Интернете)
  • US8510286B1
  • Google LLC
  • 2011-11-21
  • 2013-08-13
  • Индексация
  • Краулинг
  • SERP
  • Техническое SEO
  • Описание
  • Разбор
  • Выводы
  • Практика
  • FAQ
  • Похожие

Google разработал систему для идентификации контент-провайдеров, которые поддерживают стандартизированный процесс удаления контента (например, по DMCA или законам о приватности). Поисковая система обнаруживает эту возможность через Sitemap или проверку URL, помечает такие результаты в выдаче специальным индикатором и может ранжировать их выше. После запроса пользователя на удаление, система ускоряет повторное сканирование сайта и обновление индекса.

Описание

Какую проблему решает

Патент решает проблему управления запросами на удаление контента (content takedown) из интернета (например, из-за нарушений DMCA, законов о приватности и т.д.). Пользователи часто ошибочно требуют от поисковой системы удалить контент, который ей не принадлежит и размещен на сторонних серверах. Изобретение снижает нагрузку на поисковую систему, автоматизируя перенаправление запросов к владельцам контента (content provider) и ускоряя обновление поискового индекса после удаления контента с сайта-источника.

Что запатентовано

Запатентована система, позволяющая поисковой системе идентифицировать контент-провайдеров, которые поддерживают стандартизированную функциональность удаления контента (take-down functionality). Поисковая система обнаруживает эту возможность во время сканирования (например, через Sitemap), помечает соответствующие результаты в выдаче специальным индикатором (indicator) и предоставляет пользователю интерфейс для инициирования запроса на удаление непосредственно к провайдеру. Система также включает механизм ускоренного повторного сканирования (re-crawling) после отправки запроса.

Как это работает

Система работает в несколько этапов:

  • Обнаружение: Во время сканирования краулер определяет, поддерживает ли сайт take-down functionality. Это делается путем анализа файла sitemap.xml на наличие специальных тегов (например, <takedown:remove-url/>) или путем проверки доступности предопределенного URL на сайте.
  • Индексирование: В индекс добавляется информация о поддержке сайтом функции удаления контента.
  • Отображение SERP: При формировании выдачи к результатам с поддерживающих сайтов добавляется визуальный индикатор (иконка или текст, например, "Request takedown"). В патенте также упоминается возможность ранжировать такие результаты выше.
  • Обработка запроса: Когда пользователь активирует индикатор, система направляет его (часто через страницу предпросмотра) на страницу удаления контента провайдера, автоматически формируя необходимый запрос с параметрами (например, URL контента).
  • Обновление индекса: После отправки запроса система планирует ускоренное повторное сканирование сайта и может превентивно обновить индекс, чтобы быстрее удалить контент из выдачи.

Актуальность для SEO

Средняя. Управление DMCA и запросами на удаление контента остается критически важной операционной задачей для Google. Механизмы ускоренного обновления индекса и использования Sitemap для передачи сигналов актуальны. Однако конкретная реализация пользовательского интерфейса (визуальные индикаторы в SERP для удаления контента) и специфические теги Sitemap, описанные в патенте, в настоящее время широко не наблюдаются в основном поиске Google.

Важность для SEO

Патент имеет умеренное значение для SEO. Он не описывает основные алгоритмы ранжирования, но затрагивает важные аспекты управления индексацией и взаимодействия с поисковой системой. Во-первых, он описывает механизм ускоренного re-crawling, что важно для быстрого обновления индекса. Во-вторых, в тексте патента прямо упоминается возможность ранжировать результаты, поддерживающие take-down functionality, выше других. В-третьих, наличие визуального индикатора в SERP может влиять на CTR, делая результат более заметным.

Детальный разбор

Термины и определения

Take-down Functionality (Функциональность удаления контента)
Возможность сайта (контент-провайдера) принимать и обрабатывать стандартизированные запросы на удаление контента.
Indicator (Индикатор)
Визуальный элемент (графическая иконка или текстовая строка), добавляемый к результату поиска в SERP, чтобы показать, что источник поддерживает take-down functionality.
Sitemap (Карта сайта)
XML-файл. В контексте патента используется для обнаружения take-down functionality через специальные теги в пространстве имен takedown (например, <takedown:remove-url/>, <takedown:api-url/>).
Takedown Page (Страница удаления)
Специальная страница или API на сайте контент-провайдера, предназначенная для приема запросов на удаление контента.
Predefined Code (Предопределенный код)
Метод обнаружения take-down functionality путем проверки доступности определенного стандартного URL на сайте (например, добавление "isupporttakedown.html" к домену).
Re-crawling (Повторное сканирование)
Процесс повторного посещения сайта краулером. Патент описывает планирование ускоренного re-crawling после запроса на удаление контента для быстрого обновления индекса.
Preview Page (Страница предпросмотра)
Промежуточная страница или интерфейсный элемент (например, lightbox), который показывает пользователю контент и предоставляет кнопку для запроса на его удаление.

Ключевые утверждения (Анализ Claims)

Claim 1 (Независимый пункт): Описывает метод отображения результатов поиска с индикацией возможности удаления контента.

  1. Получение результатов поиска.
  2. Определение того, поддерживают ли результаты take-down functionality (путем проверки, реализует ли контент-провайдер эту функцию).
  3. Добавление индикатора к этим результатам. Индикатор является графической иконкой (graphical icon), добавленной к гиперссылке результата.
  4. Эта иконка является гиперссылкой на preview page.
  5. Preview page включает (i) область отображения контента и (ii) гиперссылку на take-down page контент-провайдера.
  6. Предоставление результатов поиска клиенту с индикатором.

Claim 3 и 4 (Зависимые от 1): Уточняют методы определения поддержки take-down functionality.

  • Claim 3 (Метод URL Checking): Определение включает получение идентификатора результата, добавление к нему predefined code и проверку того, является ли полученная комбинация действительным ресурсом у того же провайдера.
  • Claim 4 (Метод Sitemap): Определение включает парсинг файла sitemap и обнаружение специального тега, который указывает идентификатор для take-down page.

Claim 11 (Независимый пункт): Аналогичен Claim 1, но индикатор является текстовой строкой.

Описывается метод, где к результатам поиска добавляется дополнительная текстовая строка (additional text string). Эта строка также является гиперссылкой на preview page, которая содержит контент и ссылку на take-down page провайдера.

Claim 13 (Независимый пункт): Описывает метод обслуживания запроса на удаление контента и обновление индекса.

  1. Представление коллекции идентификаторов контента (результатов поиска) клиенту.
  2. Получение первого запроса на удаление от клиента.
  3. Генерация второго запроса на удаление на основе первого.
  4. Передача второго запроса провайдеру контента.
  5. Планирование повторного сканирования (scheduling of re-crawling) веб-сайта, на котором размещен контент.

Где и как применяется

Изобретение затрагивает несколько ключевых этапов поисковой архитектуры.

CRAWLING – Сканирование и Сбор данных
Краулер активно ищет признаки поддержки take-down functionality. Это происходит либо путем парсинга Sitemap, либо путем проверки наличия предопределенных URL (Predefined Code) на сканируемом сайте.

INDEXING – Индексирование и извлечение признаков
Информация, собранная на этапе CRAWLING, сохраняется в индексе. Документы или сайты помечаются как поддерживающие take-down functionality, также сохраняются детали Takedown URL/API.

RANKING – Ранжирование
Хотя это прямо не заявлено в Claims, в описании патента (Description) явно упоминается возможность использования этой функции для изменения порядка результатов: "The results may be ordered with results that support takedown functionality... higher in the order than results that do not support takedown functionality". Это предполагает потенциальное влияние на ранжирование.

RERANKING / Формирование SERP
На этом этапе система добавляет визуальные индикаторы (иконки или текст) к результатам поиска на основе данных из индекса. Также формируются ссылки на preview page.

Пост-обработка (Взаимодействие и Обновление)
Система обрабатывает клики пользователя по индикаторам, генерирует и отправляет запросы контент-провайдерам. После этого она инициирует обновление данных: планирует ускоренное re-crawling и может обновлять индекс для удаления контента.

Входные данные:

  • Данные сканирования (Sitemap.xml, результаты проверки URL).
  • Результаты поиска по запросу пользователя.
  • Запрос пользователя на удаление контента.

Выходные данные:

  • Обновленный индекс с флагами поддержки take-down functionality.
  • SERP с визуальными индикаторами.
  • Сформированный запрос на удаление, отправленный контент-провайдеру.
  • Запланированное задание на повторное сканирование сайта.

На что влияет

  • Конкретные типы контента: Влияет на контент, который часто подвергается запросам на удаление: видео, изображения, статьи, блоги. Особенно актуально для пользовательского контента (UGC).
  • Конкретные ниши или тематики: Наибольшее влияние в нишах, связанных с авторским правом (медиа, развлечения) и приватностью (персональные данные).
  • Влияние на ранжирование: Патент предполагает возможность повышения в ранжировании сайтов, которые поддерживают эту функциональность.
  • Влияние на CTR: Наличие визуального индикатора может привлечь внимание пользователя и повлиять на кликабельность результата, что указано в патенте как стимул для провайдеров.

Когда применяется

  • Во время сканирования: При каждом обходе сайта краулер проверяет наличие или изменение сигналов take-down functionality.
  • При формировании SERP: Каждый раз, когда в выдачу попадает результат с сайта, поддерживающего эту функцию.
  • При взаимодействии пользователя: Когда пользователь инициирует запрос на удаление контента через интерфейс поисковой системы.
  • После запроса на удаление: Активируется механизм ускоренного обновления индекса и повторного сканирования.

Пошаговый алгоритм

Процесс А: Сканирование и Индексирование

  1. Сканирование веба: Краулер обходит сайты и обнаруживает контент.
  2. Анализ возможностей удаления контента: Для обнаруженного контента/сайта система проверяет поддержку take-down functionality.
    1. Проверка Sitemap: Система ищет sitemap.xml. Если найден, анализирует его на наличие специальных тегов (например, <takedown:remove-url/>), указывающих URL страницы удаления или API. Также могут использоваться регулярные выражения (regexp) для ограничения функциональности определенными разделами сайта.
    2. Проверка URL: Если Sitemap отсутствует или не содержит информации, система конструирует предопределенный URL (например, добавляя "isupporttakedown.html" к домену) и проверяет его доступность.
  3. Обновление индекса: В индекс добавляется флаг о поддержке take-down functionality и информация о том, как формировать запрос на удаление (URL, параметры API).

Процесс Б: Обработка поискового запроса и формирование SERP

  1. Получение запроса и Поиск в индексе: Система находит релевантные результаты.
  2. Ранжирование (Опционально): Система может скорректировать порядок результатов, отдавая предпочтение тем, которые поддерживают take-down functionality.
  3. Добавление индикатора удаления: Система проверяет флаги в индексе. К результатам, поддерживающим удаление, добавляется индикатор (иконка или текст). Индикатор содержит ссылку на preview page.
  4. Возврат результатов: SERP с индикаторами отображается пользователю.

Процесс В: Обработка запроса на удаление

  1. Запрос на удаление: Пользователь кликает на индикатор и подтверждает действие на preview page.
  2. Конструирование запроса к провайдеру: Система использует данные из индекса (URL страницы удаления, параметры API) для формирования запроса к контент-провайдеру. Запрос может включать URL удаляемого контента и исходный поисковый запрос пользователя.
  3. Передача запроса провайдеру: Система отправляет запрос (например, через HTTP POST/GET) или перенаправляет пользователя на соответствующий URL.
  4. Планирование повторного сканирования: Система планирует ускоренное re-crawling сайта-источника.
  5. Обновление индекса (Опционально): Система может немедленно обновить индекс, чтобы исключить контент из выдачи, не дожидаясь результатов повторного сканирования.

Какие данные и как использует

Данные на входе

  • Технические факторы (Sitemap): Наличие и содержание файла sitemap.xml, в частности, наличие расширений и тегов, связанных с удалением контента (<takedown:remove-url/>, <takedown:api-url/>). Также используются регулярные выражения (regexp) из Sitemap для определения шаблонов URL.
  • Технические факторы (URL и коды ответа): Доступность (код ответа) предопределенных URL (Predefined Code), сигнализирующих о поддержке функции удаления.
  • Структурные факторы (API спецификации): Если используется API для удаления, система может использовать XML-файл спецификации (например, "my-takedown-api.xml"), описывающий параметры запроса.
  • Пользовательские данные (Запрос): Исходный поисковый запрос пользователя может передаваться контент-провайдеру как часть запроса на удаление (параметр query).

Какие метрики используются и как они считаются

Патент не вводит сложных метрик или формул, а фокусируется на бинарных проверках и процедурных механизмах:

  • Поддержка Take-down Functionality (Бинарная метрика): Определяется как ИСТИНА, если выполнено одно из условий:
    1. В Sitemap обнаружен соответствующий тег.
    2. Предопределенный URL доступен на сайте.
  • Приоритет сканирования: После запроса на удаление приоритет сканирования для соответствующего URL или сайта повышается (Schedule Re-Crawling).
  • Ранжирование (Упомянуто в описании): Поддержка Take-down Functionality может использоваться как сигнал для повышения позиции результата в выдаче. Вес этого сигнала не уточняется.

Выводы

  1. Sitemap как канал функциональной коммуникации: Патент подтверждает использование файла Sitemap.xml не только для указания URL, но и для передачи поисковой системе информации о возможностях сайта и API.
  2. Автоматизация и ускорение индексации удалений: Ключевым элементом системы является автоматизация процесса запроса на удаление и последующее ускоренное повторное сканирование (re-crawling) источника. Это позволяет быстрее актуализировать индекс после удаления контента.
  3. Стимулы для внедрения (Ранжирование и CTR): В описании патента явно говорится о возможности ранжировать сайты, поддерживающие take-down functionality, выше. Также упоминается, что визуальный индикатор может выделить результат в выдаче, что потенциально влияет на CTR. Это служит стимулом для владельцев сайтов.
  4. Перенос ответственности: Система разработана для переноса ответственности за удаление контента с поисковой системы на владельца сайта (content provider), упрощая этот процесс для пользователя.
  5. Гибкость реализации: Google предусмотрел различные методы реализации: через специальную страницу, через API с настраиваемыми параметрами, а также возможность ограничения функции для определенных разделов сайта с помощью регулярных выражений (regexp) в Sitemap.

Практика

Best practices (это мы делаем)

  • Корректное управление удаленным контентом: При необходимости удаления контента (например, устаревших товаров или по юридическим требованиям) убедитесь, что он действительно удален с сервера и возвращает код 404 или 410. Механизм ускоренного re-crawling, описанный в патенте, подразумевает, что Google стремится быстро проверять статус страницы после запроса на удаление.
  • Использование Sitemap для важных сигналов: Поддерживайте актуальность Sitemap.xml. Патент показывает, что Google анализирует Sitemap для получения функциональной информации. Хотя конкретные теги <takedown> не стали общепринятым стандартом, это подтверждает важность Sitemap как надежного канала связи.
  • Ускорение удаления через GSC: Используйте инструмент удаления URL в Google Search Console для временного скрытия страниц. Это действие реализует логику, схожую с описанным в патенте немедленным обновлением индекса до подтверждения удаления краулером.
  • Реализация механизмов обработки жалоб (для UGC и крупных сайтов): Если ваш сайт содержит пользовательский контент или контент, который может вызвать юридические претензии (DMCA), наличие четкого и работающего механизма для обработки запросов на удаление является критически важным. Согласно патенту, это может (потенциально) рассматриваться как позитивный сигнал.

Worst practices (это делать не надо)

  • Использование Soft 404: Не подменяйте удаленный контент заглушками с кодом ответа 200 OK. Если контент должен быть удален, он должен возвращать корректный код ошибки (404/410). При ускоренном re-crawling Google должен увидеть именно ошибку, чтобы подтвердить удаление.
  • Блокировка удаленного контента через robots.txt: Не используйте robots.txt для удаления страниц из индекса. Если страница заблокирована, краулер не сможет увидеть код 404/410 и подтвердить удаление.
  • Игнорирование запросов на удаление контента: Игнорирование DMCA и других юридических запросов противоречит принципам, которые Google пытается стимулировать этим патентом, и может негативно влиять на репутацию сайта.

Стратегическое значение

Стратегическое значение патента заключается в демонстрации того, как Google стремится автоматизировать операционные и юридические процессы через технические средства (Sitemap, API) и интегрировать их в поисковую выдачу. Для SEO-специалистов это напоминание о важности технической корректности при управлении жизненным циклом контента, особенно при его удалении. Патент указывает на то, что "ответственное поведение" сайта (Compliance) может рассматриваться как позитивный сигнал, влияющий на представление в SERP и, возможно, на ранжирование.

Практические примеры

Сценарий: Ускоренное удаление контента из индекса (Применение принципов патента)

Хотя SEO-специалисты не могут напрямую активировать механизм re-crawling, описанный в патенте (так как он инициируется пользователем через интерфейс Google), они могут использовать стандартные инструменты для достижения схожего результата — быстрого обновления индекса.

  1. Задача: Быстро удалить 100 страниц устаревших товаров из индекса Google.
  2. Действия:
    1. Настроить сервер так, чтобы все 100 URL возвращали код ответа 410 Gone (предпочтительнее) или 404 Not Found.
    2. Убедиться, что эти URL не заблокированы в robots.txt.
    3. (Опционально) Временно вернуть эти URL в Sitemap.xml с актуальной датой lastmod, чтобы стимулировать краулер посетить их и увидеть код 410/404.
    4. Использовать инструмент удаления URL в Google Search Console для временного скрытия этих страниц из выдачи. Это действие аналогично "Обновлению индекса" (Operation S750) в патенте.
  3. Ожидаемый результат: Страницы быстро скрываются из выдачи (через GSC), а при следующем сканировании Google подтверждает их удаление и окончательно удаляет их из индекса.

Вопросы и ответы

Является ли поддержка функции удаления контента (Take-down Functionality) фактором ранжирования?

Да, потенциально. В описании патента (Description) прямо указано: "The results may be ordered with results that support takedown functionality... higher in the order than results that do not support takedown functionality". Это означает, что такая возможность заложена в систему как стимул для владельцев сайтов. Однако на практике это, скорее всего, очень слабый сигнал, если он вообще используется в основном поиске.

Стоит ли добавлять теги <takedown:remove-url/> в Sitemap.xml?

На данный момент (2025 год) — нет. Описанные в патенте теги не стали общепринятым стандартом и не упоминаются в официальной документации Google по Sitemap. Нет подтверждений, что Google активно использует именно эти теги в публичном поиске. Лучше сосредоточиться на стандартных элементах Sitemap.

Что такое "ускоренное повторное сканирование" (accelerated re-crawling), описанное в патенте?

Это механизм, при котором после отправки запроса на удаление контента поисковая система повышает приоритет сканирования для соответствующего URL или сайта. Цель — как можно быстрее проверить, был ли контент действительно удален с источника, и обновить поисковый индекс. Это помогает избежать ситуаций, когда контент уже удален с сайта, но все еще отображается в поиске.

Как поисковая система определяет, поддерживает ли сайт функцию удаления без Sitemap?

Патент описывает альтернативный механизм: проверку доступности предопределенного URL (Predefined Code). Например, система может проверить, существует ли страница example.com/isupporttakedown.html. Если страница доступна, система считает, что сайт поддерживает эту функцию. На практике этот метод также не наблюдается как стандарт.

Влияет ли этот патент на то, как нужно обрабатывать ошибки 404?

Да, косвенно. Поскольку система предполагает ускоренное повторное сканирование для подтверждения удаления контента, критически важно, чтобы удаленный контент возвращал корректный код статуса (404 Not Found или 410 Gone). Если удаленная страница будет возвращать 200 OK (Soft 404) или будет заблокирована в robots.txt, краулер не сможет подтвердить удаление, что замедлит обновление индекса.

Что такое индикатор удаления контента в SERP и влияет ли он на CTR?

Это визуальный элемент (иконка или текст, например, "Request takedown"), который добавляется к сниппету. Да, он может повлиять на CTR. В патенте упоминается, что добавление графического индикатора может сделать результат более заметным и привлечь внимание пользователя, что служит стимулом для контент-провайдеров.

Может ли поисковая система удалить контент из индекса до того, как он будет удален с сайта?

Да. В патенте описан шаг (Operation S750), на котором поисковая система может обновить индекс, чтобы избежать возврата контента, который был предметом запроса на удаление, даже если повторное сканирование еще не завершено. Это аналогично работе инструмента удаления URL в GSC.

Можно ли ограничить эту функциональность только определенными разделами сайта?

Да. Патент предусматривает использование регулярных выражений (regexp) в файле Sitemap (например, в теге <path>). Это позволяет владельцу сайта указать, что только определенные URL-паттерны (например, /videos/.*) поддерживают функциональность удаления.

Что происходит, когда пользователь нажимает на индикатор удаления в SERP?

Согласно Claims 1 и 11, пользователь перенаправляется на страницу предварительного просмотра (preview page). Эта страница показывает сам контент (например, в лайтбоксе) и содержит отдельную гиперссылку или кнопку для перехода на фактическую страницу удаления (take-down page) на сайте контент-провайдера.

Какова основная польза этого патента для SEO-специалиста?

Основная польза заключается в понимании внутренних процессов Google, связанных с обновлением индекса после удаления контента. Патент подчеркивает важность технически корректной обработки удаленных страниц (коды 404/410) и подтверждает использование Sitemap как канала для передачи функциональных сигналов. Также он указывает на потенциальную возможность получения преимуществ за счет реализации механизмов обработки жалоб (Compliance).

Похожие патенты

Как Google автоматически обнаруживает и удаляет идентификаторы сессий из URL для оптимизации сканирования и предотвращения дублирования
Google использует механизм для автоматического обнаружения идентификаторов сессий в URL-адресах во время сканирования. Система анализирует подстроки, которые выглядят случайными и повторяются в нескольких URL с одного сайта. Эти идентификаторы удаляются для создания «чистых» версий URL. Это позволяет поисковой системе распознавать дублирующийся контент и избегать повторного сканирования одних и тех же страниц, оптимизируя краулинговый бюджет.
  • US7886032B1
  • 2011-02-08
  • Краулинг

  • Техническое SEO

  • Индексация

Как Google позволяет владельцам сайтов выбирать предпочтительный (канонический) домен для индексации и управлять скоростью сканирования
Патент описывает механизмы Google для решения проблемы дублирования контента, возникающей из-за нескольких эквивалентных доменных имен (например, с WWW и без). Верифицированные владельцы могут указать предпочтительный домен, который Google будет использовать для перезаписи URL-адресов перед индексацией, консолидируя сигналы ранжирования. Патент также описывает интерфейсы для управления верификацией владельцев и контроля скорости сканирования (Crawl Rate).
  • US7930400B1
  • 2011-04-19
  • Индексация

  • Краулинг

  • Техническое SEO

Как Google автоматически определяет и удаляет неважные URL-параметры для каноникализации и эффективного сканирования
Google использует систему для автоматического определения канонической формы URL. Система активно тестирует различные комбинации параметров в URL, чтобы определить, какие из них влияют на контент, а какие нет (например, tracking-коды или session ID). Неважные параметры удаляются с помощью правил перезаписи, что позволяет свести множество дублирующихся URL к единой канонической версии, экономя краулинговый бюджет.
  • US7827254B1
  • 2010-11-02
  • Краулинг

  • Техническое SEO

  • Индексация

Как Google предлагает использовать номера версий контента для генерации в Sitemap, если реальная дата изменения недоступна
Патент описывает метод для генерации Sitemaps на сайтах, где фактическое время последнего изменения контента недоступно (например, для данных в БД). Система сравнивает текущий номер версии контента с версией на момент прошлой генерации Sitemap. Если версия изменилась, в тег устанавливается текущее время, что гарантирует повторное сканирование обновленного контента краулером.
  • US7865497B1
  • 2011-01-04
  • Краулинг

  • Техническое SEO

  • Индексация

Как Google идентифицирует, классифицирует и помечает сайты с вредоносным ПО (Scumware) в поиске и браузерах
Google сканирует веб на наличие «Scumware» (вредоносное и нежелательное ПО). Патент описывает, как система различает сайты, которые содержат вредоносный код, и сайты, которые на него ссылаются. Обнаружение угрозы может привести к исключению сайта из поиска, понижению в ранжировании или добавлению различных визуальных предупреждений в SERP и браузерных тулбарах.
  • US8126866B1
  • 2012-02-28
  • Безопасный поиск

  • Индексация

  • SERP

Популярные патенты

Как Google генерирует связанные запросы (Related Searches), используя сущности из топовых результатов и сохраняя структуру исходного запроса
Google использует систему для автоматической генерации уточнений запросов (например, «Связанные запросы»). Система анализирует топовые документы в выдаче и извлекает из них ключевые сущности. Затем эти сущности комбинируются с важными терминами исходного запроса, при этом строго сохраняется исходный порядок слов, чтобы создать релевантные и естественно звучащие предложения для дальнейшего поиска.
  • US8392443B1
  • 2013-03-05
  • Семантика и интент

  • Поведенческие сигналы

Как Google использует историю уточнений запросов для выявления и повышения авторитетных сайтов по широким запросам
Google анализирует последовательности запросов пользователей, чтобы понять, как они уточняют свои поисковые намерения. Если пользователи часто переходят от широкого или неточного запроса к более конкретному, который ведет на авторитетный ресурс, Google связывает этот ресурс с исходным широким запросом. Это позволяет показывать авторитетный сайт выше в выдаче, даже если пользователь сформулировал запрос неточно.
  • US8326826B1
  • 2012-12-04
  • Семантика и интент

  • Поведенческие сигналы

  • EEAT и качество

Как Google персонализирует мобильную выдачу, повышая в ранжировании приложения, которые пользователь часто использует (Affinity Score)
Google рассчитывает «Affinity Score» для мобильных приложений на основе того, как часто и долго пользователь их использует (относительное вовлечение). При поиске с мобильного устройства система повышает в ранжировании результаты (deep links), ведущие в приложения с высоким Affinity Score, делая выдачу более персонализированной.
  • US10248698B2
  • 2019-04-02
  • Персонализация

  • Поведенческие сигналы

  • SERP

Как Google использует историю запросов в текущей сессии и статистические паттерны для переранжирования результатов
Google анализирует миллионы прошлых поисковых сессий, выявляя статистически значимые последовательности запросов («Пути Запросов»), которые заканчиваются кликом на определенный URL («Конечная Точка Контента»). Когда текущая сессия пользователя совпадает с историческим путем, Google переранжирует результаты, повышая те URL, которые исторически удовлетворяли пользователей в аналогичном контексте, пропорционально вероятности их выбора.
  • US7610282B1
  • 2009-10-27
  • Поведенческие сигналы

  • SERP

  • Семантика и интент

Как Google использует временной распад и анализ трендов кликов для корректировки ранжирования и борьбы со стагнацией выдачи
Google применяет механизмы для предотвращения «залипания» устаревших результатов в топе выдачи. Система анализирует возраст пользовательских кликов и снижает вес старых данных (временной распад), отдавая приоритет свежим сигналам. Кроме того, система выявляет документы с ускоряющимся трендом кликов по сравнению с фоном и повышает их в выдаче, улучшая актуальность результатов.
  • US9092510B1
  • 2015-07-28
  • Свежесть контента

  • Поведенческие сигналы

  • SERP

Как Google использует интерактивные визуальные цитаты для генерации и уточнения ответов в мультимодальном поиске (SGE/Lens)
Google использует механизм для улучшения точности ответов, генерируемых LLM в ответ на мультимодальные запросы (изображение + текст). Система находит визуально похожие изображения, извлекает текст из их источников и генерирует ответ. Этот ответ сопровождается «визуальными цитатами» (исходными изображениями). Если пользователь видит, что цитата визуально не соответствует запросу, он может её отклонить. Система удалит текст этого источника и перегенерирует ответ, повышая его точность.
  • US20240378237A1
  • 2024-11-14
  • Мультимедиа

  • EEAT и качество

  • Семантика и интент

Как Google динамически регулирует влияние фактора близости в локальном поиске в зависимости от тематики запроса и региона
Google использует систему для определения того, насколько важна близость (расстояние) для конкретного поискового запроса и региона. Анализируя исторические данные о кликах и запросах маршрутов, система вычисляет «Фактор важности расстояния». Для запросов типа «Кофе» близость критична, и удаленные результаты пессимизируются. Для запросов типа «Аэропорт» близость менее важна, и качественные результаты могут ранжироваться высоко. Система также учитывает плотность региона (город или село), адаптируя ожидания пользователей по расстоянию.
  • US8463772B1
  • 2013-06-11
  • Local SEO

  • Поведенческие сигналы

Как Google использует модель D-Q-D и поведение пользователей для предложения разнообразных запросов, связанных с конкретными результатами поиска
Google использует модель "Документ-Запрос-Документ" (D-Q-D), построенную на основе данных о поведении пользователей (клики, время просмотра), для генерации связанных поисковых подсказок. Система предлагает альтернативные запросы, привязанные к конкретному результату, только если эти запросы ведут к новому, разнообразному набору документов, облегчая исследование смежных тем.
  • US8583675B1
  • 2013-11-12
  • Поведенческие сигналы

  • SERP

  • Семантика и интент

Как Google рассчитывает и показывает рейтинг легитимности сайтов и рекламодателей на основе их истории и активности
Google патентует систему для оценки и отображения «Рейтинга Легитимности» источников контента, включая сайты в органической выдаче и рекламодателей. Этот рейтинг основан на объективных данных: как долго источник взаимодействует с Google (история) и насколько активно пользователи с ним взаимодействуют (объем транзакций, клики). Цель — предоставить пользователям надежную информацию для оценки качества и надежности источника.
  • US7657520B2
  • 2010-02-02
  • SERP

  • EEAT и качество

  • Поведенческие сигналы

Как Google игнорирует часто меняющийся контент и ссылки в нем, определяя "временные" блоки шаблона сайта
Google использует механизм для отделения основного контента от динамического шума (реклама, виджеты, дата). Система сравнивает разные версии одной страницы, чтобы найти часто меняющийся контент. Затем она анализирует HTML-структуру (путь) этого контента и статистически определяет, является ли этот структурный блок "временным" для всего сайта. Такой контент игнорируется при индексации и таргетинге рекламы, а ссылки в нем могут не учитываться при расчете PageRank.
  • US8121991B1
  • 2012-02-21
  • Индексация

  • Техническое SEO

  • Структура сайта

seohardcore