Close Menu
    Telegram
    SEO HARDCORE
    • Разборы патентов
      • Патенты Google
      • Патенты Яндекс
    • Скоро
      SEO инструменты
    • Скоро
      SEO аналитика
    SEO HARDCORE
    Разборы патентов • Патенты Яндекс

    Как Яндекс генерирует прямые ссылки (Deep Links) на страницы сайтов, минуя их индексацию

    СИСТЕМА И СПОСОБ ВЫПОЛНЕНИЯ ПОИСКА (SYSTEM AND METHOD TO DO SEARCH)
    • RU2597476C2
    • Yandex LLC
    • 2016-09-10
    • 2014-06-27
    2016 E-commerce SEO SERP Индексация Патенты Яндекс

    Яндекс патентует метод доступа к контенту на сайтах с огромным количеством динамических страниц (например, билеты, товары, погода). Вместо индексации всех вариантов система определяет шаблон URL сайта и подставляет в него параметры из запроса пользователя. Это позволяет генерировать прямую ссылку (Deep Link) на релевантную страницу прямо в SERP, даже если эта страница никогда не была проиндексирована.

    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх

    Описание

    Какую задачу решает

    Патент решает фундаментальную проблему традиционного краулинга — так называемый «комбинаторный взрыв» (combinatorial explosion). Существуют сайты (например, агрегаторы авиабилетов, крупные E-commerce с фильтрами), где каждая комбинация параметров (дата, маршрут, цена, характеристики товара) генерирует уникальный URL. Сканирование и индексация миллиардов таких комбинаций требуют огромных ресурсов и часто невозможны. Изобретение позволяет поисковой системе предоставлять прямые ссылки на эти актуальные страницы без необходимости их предварительного обхода и индексации.

    Что запатентовано

    Запатентована система и способ генерации адресов ресурсов (URL) на лету. Суть изобретения заключается в использовании Шаблонов адресов (Address Templates), связанных с конкретными сайтами (Узлами). Система извлекает параметры из запроса пользователя и конструирует конечный URL, подставляя эти параметры в соответствующий шаблон, тем самым минуя необходимость наличия этого URL в индексе.

    Как это работает

    При получении запроса система анализирует его и извлекает Параметры поиска (например, даты, локации, цены). Одновременно определяется релевантный Узел (сайт), который может содержать ответ. Система использует известный Шаблон адреса для этого узла (например, site.example/search?location={X}&date={Y}). Параметры из запроса подставляются в шаблон, генерируя конкретный URL. Патент также предусматривает возможность проверки доступности сгенерированного URL. В результате пользователь получает в SERP прямую ссылку (Deep Link) на нужную страницу.

    Актуальность для SEO

    Высокая. Проблема доступа к структурированным данным на сайтах с параметризованной навигацией остается крайне актуальной. Методы, позволяющие предоставлять пользователям прямые ссылки на конкретные результаты фильтрации или конфигурации (особенно в Travel и E-commerce), являются ключевым направлением развития поиска и улучшения пользовательского опыта.

    Важность для SEO

    Влияние на SEO значительно (7/10), но специфично для определенных вертикалей. Патент критически важен для крупных структурированных сайтов: агрегаторов, маркетплейсов, сервисов бронирования. Он демонстрирует, что для таких сайтов наличие стабильной, предсказуемой и семантически понятной структуры URL является ключевым фактором, позволяющим поисковой системе генерировать трафик на глубокие страницы (Deep Links), минуя традиционные сложности с краулинговым бюджетом.

    Детальный разбор

    Термины и определения

    Адрес ресурса (Resource Address)
    Конкретный URL, указывающий на местоположение ресурса. В контексте патента — это URL, сгенерированный системой на лету.
    Внешняя ссылка (External Link / Deep Link)
    Термин, используемый в примерах патента (Фиг. 3A-3C) для обозначения гиперссылки в SERP, которая ведет непосредственно на конкретную страницу с релевантной информацией (сгенерированный Адрес ресурса), а не на главную страницу сайта.
    Комбинаторный взрыв (Combinatorial Explosion)
    Ситуация, когда количество возможных страниц на сайте огромно из-за множества комбинаций параметров (фильтры, даты, локации и т.д.).
    Параметры поиска (Search Parameters)
    Конкретные данные, извлеченные из запроса пользователя (например, даты, местоположение, цена), которые используются для заполнения Шаблона адреса.
    Узел (Node / Host)
    Веб-сайт или сервер (например, cheaptickets.example), содержащий множество ресурсов.
    Шаблон адреса (Address Template)
    Правило или структура, описывающая, как формируются URL-адреса на конкретном Узле. Содержит плейсхолдеры для параметров (например, http://site.example/?departure?/?destination?/?date?).

    Ключевые утверждения (Анализ Claims)

    Патент фокусируется на методе генерации результатов поиска, который обходит необходимость предварительной индексации конкретных страниц.

    Claim 1 (Независимый пункт, Способ) и Claim 14 (Независимый пункт, Сервер): Описывают ядро изобретения.

    1. Получение поискового запроса от пользователя.
    2. Определение релевантного Узла (сайта), который содержит ресурсы, соответствующие запросу.
    3. Ключевое действие: Формирование (генерация) Адреса ресурса (URL).
    4. Это формирование основано на двух компонентах: (i) Шаблоне адреса, связанном с Узлом, и (ii) части поискового запроса (Параметрах поиска).
    5. Отображение SERP, содержащей результат поиска, который указывает на этот ресурс и его сформированный адрес.

    Claims 6-10: Раскрывают способы получения Шаблона адреса. Это критически важная часть, так как она описывает два альтернативных пути:

    • Путь 1: Получение от Узла (Claims 6-9). Шаблон адреса может быть получен от самого сайта. Это может происходить заранее (Claim 8) или в момент запроса (Claim 9). Это подразумевает сотрудничество или стандартизированный способ передачи данных (например, через фиды).
    • Путь 2: Формирование системой (Claim 10). Шаблон адреса формируется самой поисковой системой путем анализа (обработки) существующих адресов ресурсов на этом Узле. Это механизм обратного инжиниринга структуры URL.

    Claim 5 (Зависимый от 1): Добавляет шаг верификации.

    После формирования адреса система выполняет проверку доступности ресурса по этому адресу. Это гарантирует, что пользователь не получит «битую» ссылку, сгенерированную по устаревшему или неверному шаблону.

    Claim 13 (Зависимый от 1): Уточняет механизм генерации.

    Формирование адреса заключается в объединении (вставке) извлеченных Параметров поиска в Шаблон адреса.

    Где и как применяется

    Изобретение применяется на стыке нескольких этапов поиска, в основном связанных с генерацией специализированных ответов и интеграцией данных.

    QUERY PROCESSING – Понимание Запросов
    На этом этапе происходит анализ входящего запроса для извлечения структурированных данных (Параметров поиска) — например, дат, локаций, цен, характеристик. Также здесь определяется интент, который может триггерировать этот механизм, и идентифицируется потенциально релевантный Узел.

    METASEARCH & BLENDING (Метапоиск и Смешивание)
    Основная логика генерации URL реализуется здесь. Этот механизм тесно связан с работой системы «Колдунщиков» (Wizards) или вертикальных поисков. Вместо обращения к основному веб-индексу для поиска готового URL:

    1. Система использует Шаблон адреса и извлеченные параметры для генерации Адреса ресурса.
    2. Система может выполнить валидацию (проверку доступности) этого адреса.
    3. Сгенерированный результат (Deep Link) инжектируется в SERP.

    CRAWLING & INDEXING (Офлайн-процессы)
    Хотя основная цель патента — избежать краулинга миллионов страниц, офлайн-процессы необходимы для поддержания системы:

    • Сбор и обновление Шаблонов адресов. Это может происходить путем получения их от Узлов (Claim 8) или путем анализа структуры URL во время обычного краулинга для обратного инжиниринга (Claim 10).

    На что влияет

    • Конкретные ниши и типы контента: Наибольшее влияние оказывается на сайты с высокоструктурированными данными и большим количеством динамических страниц: Агрегаторы (авиабилеты, отели, недвижимость), крупные E-commerce (страницы фильтров), Базы знаний, Сайты погоды.
    • Специфические запросы: Запросы с четкими параметрами (транзакционные или конкретные информационные), где пользователь ищет объект с определенными характеристиками (long-tail запросы).

    Когда применяется

    • Условия работы: Алгоритм применяется, когда традиционное сканирование неэффективно из-за «комбинаторного взрыва» количества страниц на сайте.
    • Триггеры активации: Активируется, когда система идентифицирует запрос, который может быть обслужен известным Узлом, для которого существует Шаблон адреса, И когда запрос содержит необходимые параметры для заполнения этого шаблона.

    Пошаговый алгоритм

    1. Получение и Анализ Запроса: Система получает запрос (например, «Перелет из Мадрида в Москву с 11 по 15 июля ниже 800 евро»). Выполняется извлечение Параметров поиска (Отправление: Мадрид, Назначение: Москва, Даты: 11-15 июля, Макс. цена: 800 евро).
    2. Определение Релевантного Узла: Идентификация сайта, который может ответить на запрос (например, cheaptickets.example).
    3. Получение Шаблона Адреса: Система извлекает Шаблон адреса для данного Узла (например, http://…/?departure?/?destination?/…/?upper price limit?). Шаблон может быть заранее известен или определен ранее.
    4. Формирование Адреса Ресурса (Генерация URL): Система объединяет Шаблон адреса с извлеченными Параметрами поиска для генерации целевого URL (например, http://…/?Madrid?/?Moscow?/…/?800?).
    5. (Опционально) Валидация Адреса: Система проверяет доступность сгенерированного URL (Claim 5). Если ресурс недоступен, результат может быть исключен.
    6. Отображение на SERP: Сгенерированный URL отображается на странице результатов в виде глубокой ссылки (Deep Link).

    Какие данные и как использует

    Данные на входе

    • Контентные факторы: Текст поискового запроса является основным источником для извлечения Параметров поиска и определения релевантных Узлов.
    • Технические и Структурные факторы (URL): Критически важными данными являются Шаблоны адресов (структура URL) целевых Узлов. Эти шаблоны могут быть предоставлены сайтами (Claims 6-9) или вычислены поисковой системой путем анализа существующих URL (Claim 10).
    • Пользовательские и Географические факторы: Могут использоваться на этапе обработки запроса для уточнения интента и параметров (например, определение местоположения пользователя для локализации параметров по умолчанию).

    Какие метрики используются и как они считаются

    Патент не детализирует метрики ранжирования, но описывает ключевые методы обработки данных:

    • Извлечение Параметров (Parameter Extraction): Используются методы обработки естественного языка (NLP) для извлечения сущностей и параметров из текста запроса. В патенте упоминаются «извлечение образца» и «машинное обучение».
    • Анализ Шаблонов (Template Analysis/Generation): Для автоматического определения Шаблонов адресов (Claim 10) используются методы «анализа по образцу» и/или «семантического анализа» структуры URL.
    • Конструирование URL (URL Construction): Механизм объединения параметров и шаблона (подстановка значений).
    • Валидация (Validation): Проверка доступности ресурса (Claim 5), вероятно, включающая выполнение HTTP-запроса и проверку кода ответа (например, HTTP 200 OK).

    Выводы

    1. Доступ к «глубокому вебу» без индексации: Яндекс разработал механизм для доступа к контенту на структурированных сайтах, который невозможно эффективно проиндексировать из-за «комбинаторного взрыва» страниц.
    2. Генерация Deep Links на лету: Ключевая идея — конструирование прямой ссылки в реальном времени путем вставки параметров из запроса в известный шаблон URL сайта.
    3. Критическая важность структуры URL: Система полагается на предсказуемость и стабильность Шаблонов адресов. Сайты с логичной и постоянной структурой URL получают преимущество.
    4. Два пути получения шаблонов: Шаблоны могут быть предоставлены самим сайтом (Claim 6) ЛИБО определены Яндексом самостоятельно путем анализа структуры сайта (обратный инжиниринг, Claim 10).
    5. Верификация в реальном времени: Система включает шаг проверки (Claim 5), чтобы убедиться, что сгенерированная ссылка действительно работает, прежде чем показать ее пользователю.

    Практика

    Best practices (это мы делаем)

    Рекомендации особенно актуальны для крупных E-commerce, агрегаторов, сайтов бронирования и справочных ресурсов.

    • Поддерживайте чистую, последовательную и предсказуемую структуру URL: Это ключевое требование. Убедитесь, что страницы фильтров, поиска и структурированных данных имеют логичные и стабильные URL. Это облегчает Яндексу задачу обратного инжиниринга Шаблона адреса (Claim 10).
    • Используйте семантические параметры в URL: Предпочитайте ЧПУ и ясные параметры. Например, используйте ?city=Moscow&date=2025-11-25 или /moscow/2025-11-25/ вместо ?id=123&d=456. Это помогает системе корректно сопоставить параметры запроса с полями шаблона.
    • Обеспечьте корректные коды ответа и скорость сервера: Динамические страницы должны быстро возвращать HTTP 200 OK, когда результаты существуют. Это критично для успешной валидации сгенерированных URL в реальном времени (Claim 5).
    • Обеспечьте доступность контента через GET-запросы: Контент должен быть доступен по прямой ссылке (URL). Если доступ к данным возможен только через POST-запросы или требует сложных сессионных переменных, система генерации URL работать не будет.
    • Предоставляйте структурированные данные (Feeds/API): Участие в партнерских программах Яндекса или предоставление данных через фиды (например, YML) может служить способом передачи информации о структуре URL, как описано в Claims 6-9.

    Worst practices (это делать не надо)

    • Использование сложных, непоследовательных или часто меняющихся структур URL: Это мешает Яндексу определить и использовать Шаблон адреса.
    • Внедрение сессионных идентификаторов в URL: Если URL содержит уникальный ID сессии и перестает работать через короткое время, система не сможет генерировать стабильные Deep Links.
    • Генерация контента без изменения URL: Если фильтрация на сайте происходит через AJAX/JavaScript без изменения URL, система не сможет сгенерировать глубокую ссылку на конкретный результат.
    • Блокировка запросов валидации: Медленный ответ сервера или блокировка роботов, пытающихся проверить доступность сгенерированных URL (Claim 5), приведет к исключению сайта из этой программы.

    Стратегическое значение

    Патент подтверждает, что для работы с масштабными сайтами поисковые системы ищут пути оптимизации, выходящие за рамки традиционного краулинга. Для владельцев крупных проектов это означает, что инвестиции в техническую архитектуру, логичную структуру URL и стабильность работы могут быть ключевыми для получения высококонверсионного трафика по длинному хвосту запросов, направляя пользователей напрямую на страницы листингов и фильтров.

    Практические примеры

    Сценарий 1: E-commerce и фильтры

    1. Запрос пользователя: «купить красный холодильник Bosch недорого».
    2. Действие системы: Яндекс идентифицирует релевантный Узел (маркетплейс) и извлекает Параметры: Цвет=Красный, Бренд=Bosch, Цена=Низкая.
    3. Использование Шаблона: Система знает Шаблон адреса для фильтров: https://marketplace.example/catalog/holodilniki/brand-{BRAND}/color-{COLOR}/?sort=price_asc.
    4. Генерация URL: Система формирует URL: https://marketplace.example/catalog/holodilniki/brand-bosch/color-red/?sort=price_asc и проверяет его доступность.
    5. Результат: В SERP отображается прямая ссылка на страницу фильтрации, даже если эта конкретная комбинация фильтров никогда не была проиндексирована роботом.

    Сценарий 2: Сайт недвижимости

    1. Запрос пользователя: «снять 2 комнатную квартиру в центре Самары».
    2. Действие системы: Идентифицируется Узел (агрегатор недвижимости). Извлекаются Параметры: Тип=Аренда, Комнат=2, Город=Самара, Район=Центр.
    3. Использование Шаблона: Используется шаблон: https://realty.example/{CITY}/rent/flat/{ROOMS}-rooms/district-{DISTRICT}/.
    4. Генерация URL: Формируется соответствующий URL.
    5. Результат: Пользователь получает в выдаче глубокую ссылку, ведущую сразу к нужному листингу, минуя главную страницу и необходимость ручного заполнения формы поиска.

    Вопросы и ответы

    Какую основную проблему этот патент решает для Яндекса?

    Он решает проблему «комбинаторного взрыва» URL-адресов на крупных динамических сайтах, таких как агрегаторы авиабилетов или E-commerce с фильтрами. Сканировать миллиарды возможных комбинаций параметров невозможно. Этот патент позволяет Яндексу генерировать ссылку на нужную страницу результата без ее предварительного сканирования и индексации.

    Что такое «Шаблон адреса» (Address Template) и как Яндекс его получает?

    Это правило, описывающее структуру URL на сайте, например: http://tickets.example/?from={Город1}&to={Город2}. Патент описывает два пути получения шаблона: первый — получение его от самого сайта (Claims 6-9), вероятно, через фиды или партнерские интерфейсы. Второй — обратный инжиниринг (Claim 10), когда Яндекс самостоятельно анализирует структуру уже известных URL на сайте и выводит общий шаблон.

    Означает ли это, что Яндексу больше не нужно сканировать мой крупный сайт E-commerce?

    Нет, стандартное сканирование по-прежнему необходимо для оценки качества сайта, индексации основных разделов и сбора базовой информации. Однако этот механизм позволяет Яндексу обеспечить видимость для специфических комбинаций (например, результатов фильтрации товаров), которые, возможно, никогда не были просканированы напрямую, экономя краулинговый бюджет.

    Как я могу оптимизировать свой сайт для работы этой технологии?

    Ключевой фактор — это поддержание чистой, последовательной и предсказуемой структуры URL. Используйте ЧПУ или ясные GET-параметры для фильтров и динамических страниц (например, ?color=red, а не ?f1=2). Избегайте сессионных идентификаторов в URL. Чем проще и логичнее ваша структура, тем легче Яндексу ее определить и использовать для генерации Deep Links.

    Что такое этап «Валидации» (Claim 5) и почему он важен?

    Claim 5 описывает, что после генерации URL Яндекс может проверить доступность ресурса по этому адресу. Система убеждается, что ссылка работает (например, отдает HTTP 200 OK) и ведет на существующую страницу, прежде чем показать ее пользователю. Для SEO это означает, что ваш сервер должен быстро и корректно отвечать на такие запросы.

    Какие типы сайтов больше всего затрагивает эта технология?

    В первую очередь это сайты, подверженные проблеме «комбинаторного взрыва»: крупные интернет-магазины и маркетплейсы (комбинации фильтров), сайты по продаже билетов и бронированию отелей (маршруты и даты), агрегаторы недвижимости, а также справочные ресурсы с большим объемом структурированных данных.

    Что делать, если мой сайт использует JavaScript (SPA/AJAX) для фильтрации?

    Если при применении фильтров URL не меняется, этот механизм работать не будет, так как нет уникального адреса для генерации. Для SEO в целом и для работы этого механизма в частности критически важно, чтобы каждое значимое состояние страницы (каждая комбинация фильтров) имело свой уникальный, стабильный URL, доступный напрямую (SSR или пререндеринг).

    Влияет ли этот механизм на ранжирование?

    Патент не описывает алгоритмы ранжирования, только механизм генерации результата. Однако возможность сгенерировать точную глубокую ссылку, идеально отвечающую на запрос пользователя, является мощным сигналом полезности. Вероятно, такие результаты могут получать приоритет в выдаче или использоваться в специальных блоках (Колдунщиках), так как они обеспечивают лучший пользовательский опыт.

    Что произойдет, если я изменю структуру URL на своем сайте?

    Если вы измените структуру URL, на которую опирался сформированный Яндексом «Шаблон адреса», механизм генерации глубоких ссылок перестанет работать корректно. Сгенерированные ссылки будут вести на несуществующие страницы (404 ошибка). Это приведет к потере трафика на эти глубокие страницы до тех пор, пока Яндекс не вычислит новый шаблон.

    Является ли описанный механизм частью системы «Колдунщиков» (Wizards)?

    Это очень похожий механизм. Колдунщики часто используют структурированные данные для предоставления быстрых ответов. Описанная в патенте технология генерации URL на основе шаблонов, вероятно, является одним из способов, которым Колдунщики (например, Погода, Авиабилеты) формируют свои ответы и ссылки на внешние или партнерские ресурсы.

    Навигация
    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх
    Telegram
    © 2025 SEO HARDCORE

    Type above and press Enter to search. Press Esc to cancel.