Close Menu
    Telegram
    SEO HARDCORE
    • Разборы патентов
      • Патенты Google
      • Патенты Яндекс
    • Скоро
      SEO инструменты
    • Скоро
      SEO аналитика
    SEO HARDCORE
    Разборы патентов • Патенты Google

    Как Google агрегирует поведенческие данные из похожих запросов для ранжирования редких и длиннохвостых запросов

    SEARCH RESULT INPUTS USING VARIANT GENERALIZED QUERIES (Использование вариантов обобщенных запросов в качестве входных данных для результатов поиска)
    • US9110975B1
    • Google LLC
    • 2015-08-18
    • 2006-11-02
    2006 Hyung-Jin Kim SERP Патенты Google Поведенческие сигналы Семантика и интент

    Google использует механизм обобщения запросов для улучшения ранжирования, особенно когда исторических данных по исходному запросу недостаточно. Система создает варианты запроса (удаляя стоп-слова, используя синонимы, стемминг или частичное совпадение) и агрегирует данные о поведении пользователей (клики, dwell time) из этих вариантов. Это позволяет оценить качество документа для исходного запроса, используя статистику из семантически близких запросов.

    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх

    Описание

    Какую задачу решает

    Патент решает проблему нехватки исторических поведенческих данных (например, click data, dwell time) для оценки релевантности документов по редким, новым или длиннохвостым (long-tail) запросам. Использование поведенческих сигналов эффективно для популярных запросов, но ненадежно при малом объеме данных. Изобретение позволяет использовать накопленную статистику по семантически похожим (обобщенным) запросам для улучшения ранжирования по исходному запросу.

    Что запатентовано

    Запатентована система, которая генерирует generalized quality of result statistic (обобщенную статистику качества результата) для документа путем агрегации поведенческих данных из вариантов исходного запроса. Если для пары запрос-документ нет исторических данных в модели, система создает обобщенные варианты запроса (например, путем удаления стоп-слов, использования синонимов, стемминга). Данные о кликах, связанные с этими вариантами, агрегируются и используются как входной сигнал для ранжирования по исходному запросу.

    Как это работает

    Система работает на основе предварительно построенной модели (Model), хранящей кортежи (tuples) вида <документ, запрос, данные>, где данные — это агрегированная статистика поведения пользователей. При получении нового запроса система проверяет наличие данных для документов в выдаче.

    1. Поиск точного совпадения: Если данных нет, активируется Query Generalizer.
    2. Генерация вариантов: Система создает варианты запроса, используя различные техники обобщения (удаление опциональных слов, стоп-слов, синонимы, стемминг, перестановки, частичное совпадение).
    3. Поиск совпадений вариантов: Система ищет эти варианты в модели для данного документа.
    4. Расчет статистики и весов: Поведенческие данные из найденных вариантов агрегируются. При этом данные понижаются в весе (down-weighted) в зависимости от степени отличия варианта от исходного запроса (используя match belief score или edit distance).
    5. Применение: Итоговая generalized quality of result statistic используется как входной сигнал для модификации ранжирования.

    Актуальность для SEO

    Высокая. Обработка long-tail запросов и использование поведенческих факторов остаются критически важными для поисковых систем. Механизмы семантического понимания и агрегации сигналов, описанные в патенте (синонимы, стемминг, определение опциональных терминов), активно развиваются. Этот патент описывает фундаментальный подход к переносу знаний о поведении пользователей между семантически связанными запросами.

    Важность для SEO

    Патент имеет высокое значение для SEO-стратегии, особенно для продвижения по СЧ/НЧ и long-tail запросам. Он показывает, что удовлетворение интента пользователя (выраженное в положительных поведенческих сигналах, таких как long clicks) по одному запросу может напрямую влиять на ранжирование этой же страницы по множеству семантически близких запросов, даже если по ним еще не накоплена собственная статистика. Это подчеркивает важность работы над Topical Authority и качеством страницы в целом, а не только над оптимизацией под конкретный ключ.

    Детальный разбор

    Термины и определения

    Click Data (Данные о кликах)
    Информация о взаимодействии пользователя с результатами поиска. Включает факт клика, позицию результата, а также время, проведенное пользователем на документе (dwell time) до возврата на страницу выдачи.
    Edit Distance (Расстояние редактирования)
    Метрика для измерения различия между двумя запросами (например, исходным и обобщенным). Определяется как минимальное количество операций (вставка, удаление, замена термина), необходимых для преобразования одного запроса в другой. Используется для понижения веса данных при частичном совпадении запросов.
    Generalized Quality of Result Statistic (Обобщенная статистика качества результата)
    Метрика качества документа для исходного запроса, рассчитанная путем агрегации user behavior data из одного или нескольких обобщенных (variant) запросов.
    Generalized Query / Variant Query (Обобщенный / Вариантный запрос)
    Запрос, созданный путем модификации исходного пользовательского запроса с целью найти похожий запрос, для которого уже существуют исторические данные.
    Long Click / Short Click (Длинный / Короткий клик)
    Классификация кликов на основе dwell time. Длинный клик обычно интерпретируется как признак релевантности документа, короткий клик — как признак отсутствия релевантности.
    Match Belief Score (Оценка уверенности в совпадении)
    Метрика, оценивающая семантическую близость между исходным запросом и обобщенным запросом. Основана на типах и количестве обобщений, необходимых для совпадения. Используется для взвешивания данных: чем ниже оценка, тем меньше вес у поведенческих данных.
    Model (Модель)
    База данных, агрегирующая информацию о поведении пользователей. Хранит записи (tuples) как минимум в формате <документ, запрос, данные>.
    Optional Terms (Опциональные термины)
    Термины в запросе, удаление которых не меняет основного концепта (интента) запроса. Пример: удаление «Toyota» из «Toyota celica hatchback».
    Partial Query Match (Частичное совпадение запроса)
    Ситуация, когда один или несколько терминов исходного запроса совпадают с одним или несколькими терминами запроса в модели.
    Query Generalizer (Обобщитель запросов)
    Компонент системы, отвечающий за создание вариантов (обобщений) исходного запроса.
    Stop Words (Стоп-слова)
    Часто встречающиеся слова (например, предлоги, союзы), которые обычно не несут самостоятельного смысла и могут быть удалены без изменения топика запроса.
    Tuple (Кортеж)
    Запись в модели, связывающая документ, запрос и агрегированные поведенческие данные для этой пары.

    Ключевые утверждения (Анализ Claims)

    Claim 1 (Независимый пункт): Описывает основной метод использования обобщенных запросов для ранжирования.

    1. Система получает пользовательский запрос и генерирует начальный рейтинг документов.
    2. Система определяет, что исходный запрос не соответствует ни одной записи в модели (model) запросов и документов.
    3. В ответ на это система формирует один или несколько вариантов (variants) исходного запроса для генерации одного или нескольких других запросов, которые соответствуют записям в модели. Эти другие запросы отличаются от исходного.
    4. Система выводит generalized quality of result statistic для первого документа на основе данных, связанных с этими другими запросами в модели. Эти данные указывают на агрегированное поведение пользователей (aggregate user behavior) в отношении этого документа, когда он был результатом поиска по этим другим запросам.
    5. Система предоставляет эту статистику в качестве входных данных для последующего процесса ранжирования документов по исходному запросу.

    Claim 5 (Зависимый от 1): Уточняет методы создания вариантов запроса.

    Вариант запроса формируется путем выполнения одного или нескольких действий: замена терминов синонимами, изменение порядка терминов (перестановка) или замена терминов их основами (стемминг).

    Claim 4 (Зависимый от 1): Уточняет процесс взвешивания.

    Вывод статистики включает модификацию статистики качества результата на основе уровня уверенности (level of certainty) для каждого из сгенерированных запросов (т.е. применение match belief score).

    Где и как применяется

    Изобретение затрагивает несколько этапов поиска, связывая офлайн-обработку данных с онлайн-ранжированием.

    INDEXING / Офлайн-процессы
    На этом этапе происходит построение Модели (Model Building). Система анализирует логи взаимодействия пользователей с поисковой выдачей (result selection logs), агрегирует click data (включая dwell time) и сохраняет их в виде кортежей <документ, запрос, данные>. Также может происходить предварительная обработка запросов, например, создание версий без стоп-слов.

    RANKING – Ранжирование
    На этом этапе генерируется начальный рейтинг (Initial Ranking) документов на основе стандартных IR-сигналов.

    RERANKING – Переранжирование
    Основное применение патента. Компонент Rank Modifier использует данные из Модели для корректировки начального рейтинга.

    1. Проверка наличия данных: Система проверяет, есть ли в Модели данные для исходного запроса и документа.
    2. Активация обобщения: Если данных нет или недостаточно, активируется Query Generalizer.
    3. Генерация и поиск вариантов: Создаются варианты запроса, ищутся совпадения в Модели.
    4. Расчет статистики: Вычисляется generalized quality of result statistic с учетом весов (match belief score, edit distance).
    5. Модификация рейтинга: Статистика используется для переранжирования и создания финального рейтинга (Final Ranking).

    Входные данные:

    • Исходный пользовательский запрос.
    • Начальный рейтинг документов (Initial Ranking).
    • Модель (Model) с агрегированными поведенческими данными.

    Выходные данные:

    • Generalized quality of result statistic для одного или нескольких документов.
    • Финальный рейтинг документов (Final Ranking).

    На что влияет

    • Специфические запросы: Наибольшее влияние оказывается на редкие, новые и длиннохвостые (long-tail) запросы, по которым недостаточно собственной статистики поведения пользователей.
    • Типы контента: Влияет на любые типы документов, по которым собирается статистика кликов (веб-страницы, изображения, видео, товары и т.д.).
    • Тематики: Влияние универсально, но особенно заметно в нишах с большим разнообразием формулировок запросов для одного и того же интента.

    Когда применяется

    Алгоритм применяется при выполнении следующих условий:

    • Условие активации: Когда для пары исходный запрос-документ отсутствует или недостаточно исторических поведенческих данных в Модели.
    • Условие успешного применения: Когда удается сгенерировать один или несколько вариантов (обобщений) исходного запроса, которые присутствуют в Модели для данного документа.

    Пошаговый алгоритм

    Процесс А: Обработка запроса и переранжирование (Онлайн)

    1. Получение запроса и начального рейтинга: Система получает запрос и генерирует Initial Ranking.
    2. Выбор документа: Система итерирует по документам в начальном рейтинге.
    3. Проверка Модели (Exact Match): Проверяется, есть ли в Модели кортеж для точного совпадения исходного запроса и документа.
      • Если ДА: Рассчитать статистику качества на основе этих данных. Перейти к шагу 8.
      • Если НЕТ: Активировать Query Generalizer. Перейти к шагу 4.
    4. Генерация вариантов запроса: Система применяет техники обобщения последовательно или параллельно: удаление стоп-слов, опциональных терминов, замена синонимами, стемминг, перестановки, частичное совпадение.
    5. Поиск вариантов в Модели: Система ищет сгенерированные варианты в кортежах, связанных с данным документом.
    6. Выбор наилучшего совпадения (Опционально): Если найдено несколько вариантов, может быть выбран вариант с наивысшим Match Belief Score (наименьшее количество и сложность обобщений).
    7. Расчет обобщенной статистики: Система агрегирует поведенческие данные из найденных кортежей. Применяется понижающий коэффициент (down-weighting) на основе Match Belief Score или Edit Distance.
    8. Модификация ранжирования: Рассчитанная generalized quality of result statistic используется компонентом Rank Modifier для корректировки позиции документа.
    9. Повторение: Повторить для следующего документа (шаг 2).

    Процесс Б: Построение Модели (Офлайн)

    1. Сбор данных: Компонент Tracking Component записывает взаимодействия пользователей (запрос, клик, dwell time) в Result Selection Logs.
    2. Агрегация данных: Логи обрабатываются, данные агрегируются по парам запрос-документ (например, подсчет long clicks и short clicks).
    3. Сохранение в Модели: Данные сохраняются в виде кортежей <документ, запрос, данные>.
    4. Предварительная обработка (Опционально): Для существующих кортежей могут создаваться дополнительные кортежи с обобщенными версиями запросов (например, без стоп-слов), и данные могут пропагироваться между ними.

    Какие данные и как использует

    Данные на входе

    Патент фокусируется на использовании поведенческих данных и метаданных запросов.

    • Поведенческие факторы (User Behavior Data): Ключевые данные. Включают Click Data, Dwell time (время на документе), классификацию кликов (Long Click, Short Click). Также упоминаются другие данные: позиция клика, информация о сессии, IR-оценки показанных результатов, заголовки и сниппеты, cookie пользователя, IP-адрес, User Agent.
    • Контентные/Лингвистические факторы: Используются для процесса обобщения: списки стоп-слов, базы данных синонимов, алгоритмы стемминга.

    Какие метрики используются и как они считаются

    • Match Belief Score: Оценка семантической близости. Рассчитывается путем применения штрафов (penalties) за каждое необходимое обобщение (например, штраф за удаление стоп-слова, штраф за синоним). Штрафы могут перемножаться при комбинировании обобщений.
    • Edit Distance (ed): Метрика различия между запросами (количество вставок/удалений/замен терминов). Используется при частичном совпадении.
    • Click Fraction (f): Взвешенная доля кликов для пары запрос-документ. Может рассчитываться как: f=#wc(query,document)#c(query)f = \frac{\#wc(query, document)}{\#c(query)}f=#c(query)#wc(query,document)​ (где #wc – сумма взвешенных кликов, #c – общее число кликов).
    • Down-weighted Click Fraction (df): Пониженная в весе доля кликов. Используется для моделирования потери семантического контекста при частичном совпадении. Рассчитывается с использованием экспоненциального затухания на основе edit distance (ed): df(nq,uq)=f(nq,uq)×(1+ed(nq,uq))−kdf(nq, uq) = f(nq, uq) \times (1+ed(nq, uq))^{-k}df(nq,uq)=f(nq,uq)×(1+ed(nq,uq)−k (где nq – запрос из модели, uq – исходный запрос, k > 1).
    • Final Click Fraction (ff): Итоговая доля кликов для документа при частичном совпадении. Рассчитывается на основе вектора V, содержащего нормализованные суммы df для каждого термина исходного запроса: ff=(median(V)+αmin(V))1+αff = \frac{(median(V) + \alpha min(V))}{1+\alpha}ff=1+α(median(V)+αmin(V))​ (где α – константа).

    Выводы

    1. Агрегация поведенческих сигналов между запросами: Патент подтверждает, что Google активно использует поведенческие данные (user behavior data, click data) не только для конкретного запроса, но и агрегирует их из семантически связанных запросов. Это позволяет системе оценивать качество документа даже при отсутствии прямых исторических данных.
    2. Важность удовлетворения интента (User Satisfaction): Основой механизма являются данные о кликах и dwell time (long clicks). Положительные поведенческие сигналы на странице по одному запросу улучшают ее ранжирование по множеству других связанных запросов.
    3. Механизмы семантического обобщения: Система использует конкретные лингвистические и статистические методы для определения связи между запросами: синонимы, стемминг, игнорирование стоп-слов и опциональных терминов, а также частичное совпадение. Это не простое совпадение ключевых слов, а попытка найти запросы с аналогичным интентом.
    4. Взвешивание на основе уверенности: Система не доверяет обобщенным данным слепо. Используются метрики уверенности (Match Belief Score) и семантической дистанции (Edit Distance). Чем дальше обобщенный запрос от оригинала, тем меньше вес его поведенческих данных. Применяются сложные формулы взвешивания, включая экспоненциальное затухание.
    5. Обработка Long-Tail запросов: Этот механизм критически важен для ранжирования по НЧ и редким запросам. Он позволяет страницам, хорошо отвечающим на более общие или популярные запросы в теме, получать преимущество в ранжировании по связанным длиннохвостым запросам.
    6. Пропагация данных при уточнении запроса: Патент также описывает механизм переноса поведенческих данных от уточненного запроса к исходному в рамках одной сессии, что усиливает сигналы релевантности для более общих запросов.

    Практика

    Best practices (это мы делаем)

    • Фокус на Topical Authority и широком охвате темы: Создавайте контент, который всесторонне покрывает тему и отвечает на различные варианты запросов (синонимы, разные формулировки). Если страница получает положительные поведенческие сигналы по популярным запросам кластера, она получит буст по всем связанным long-tail запросам за счет механизма обобщения.
    • Оптимизация под User Satisfaction (Long Clicks): Обеспечьте максимальное удовлетворение интента пользователя, чтобы стимулировать long clicks и минимизировать short clicks. Это главный источник данных для Модели, описанной в патенте. Качество поведенческих факторов напрямую влияет на quality of result statistic.
    • Использование синонимов и вариаций в контенте: Естественное использование синонимов и различных форм слов (стемминг) в тексте и заголовках помогает системе лучше ассоциировать страницу с различными вариантами запросов, увеличивая вероятность того, что страница будет рассмотрена при обобщении.
    • Анализ семантического кластера: При анализе эффективности страницы учитывайте ее производительность по всему кластеру связанных запросов, а не только по целевому ключу. Улучшение позиций по одному запросу в кластере может быть результатом агрегации сигналов из других запросов этого же кластера.

    Worst practices (это делать не надо)

    • Узкая оптимизация под точное вхождение ключа: Создание контента, оптимизированного только под одну конкретную формулировку запроса, неэффективно. Система обобщает запросы, и если страница нерелевантна семантическим вариантам, она не сможет воспользоваться агрегированными поведенческими данными.
    • Игнорирование поведенческих факторов: Стратегии, направленные на получение клика любой ценой (кликбейт) без последующего удовлетворения интента (что приводит к short clicks), будут пессимизироваться. Эти негативные сигналы также агрегируются и могут ухудшить ранжирование по всему кластеру запросов.
    • Создание разрозненных страниц под каждый НЧ запрос (Doorways): Попытка создать отдельные слабые страницы под каждую вариацию запроса менее эффективна, чем создание одной сильной страницы, которая агрегирует поведенческие сигналы из множества вариаций.

    Стратегическое значение

    Патент подчеркивает переход от ранжирования на основе точного совпадения запроса к ранжированию на основе семантической близости и агрегированных поведенческих сигналов. Он демонстрирует, как Google справляется с разреженностью данных в long-tail поиске. Для SEO это означает, что построение тематического авторитета и фокус на качестве взаимодействия пользователя с контентом являются фундаментальными факторами. Поведенческие сигналы становятся переносимым активом страницы в рамках всей темы.

    Практические примеры

    Сценарий: Использование данных из синонимичного запроса

    1. Ситуация: Продвигается страница интернет-магазина по новому запросу «купить автомобиль с пробегом» (Query 1). Исторических данных мало.
    2. Модель Google: В Модели есть много данных по запросу «купить авто бу» (Query 2) для этой же страницы, и они положительные (много long clicks).
    3. Работа алгоритма: Система распознает «автомобиль» как синоним «авто» и «с пробегом» как семантически близкое к «бу». Она генерирует Query 2 как вариант Query 1.
    4. Взвешивание: Рассчитывается Match Belief Score. Так как использовались синонимы, score может быть, например, 0.8.
    5. Применение: Положительные поведенческие данные из Query 2 используются для расчета generalized quality of result statistic для Query 1, но с понижающим коэффициентом 0.8.
    6. Результат: Страница получает буст в ранжировании по запросу «купить автомобиль с пробегом» благодаря хорошей истории по «купить авто бу».

    Сценарий: Использование данных из частичного совпадения (Partial Match)

    1. Ситуация: Продвигается страница по запросу «рецепт яблочного пирога с корицей быстро» (Query 1). Данных нет.
    2. Модель Google: В Модели есть данные для этой страницы по запросу «рецепт яблочного пирога» (Query 2).
    3. Работа алгоритма: Система определяет Query 2 как частичное совпадение для Query 1.
    4. Взвешивание: Рассчитывается Edit Distance. Для превращения Query 1 в Query 2 нужно удалить 3 слова («с корицей быстро»). Edit distance = 3.
    5. Применение: Поведенческие данные из Query 2 используются для Query 1, но с применением экспоненциального затухания на основе Edit Distance=3 (вес будет значительно понижен).
    6. Результат: Страница получает небольшой буст по Query 1, так как она релевантна основной части запроса.

    Вопросы и ответы

    Что такое «Модель» (Model) в контексте этого патента и какие данные она хранит?

    Модель — это база данных, которая агрегирует исторические данные о поведении пользователей. Она хранит записи (кортежи) в формате <документ, запрос, данные>, где «данные» – это метрики взаимодействия, такие как количество кликов, время пребывания на сайте (dwell time) и классификация кликов (long/short clicks). Эта модель служит источником знаний о том, какие документы пользователи считали релевантными для конкретных запросов в прошлом.

    В каких случаях активируется механизм обобщения запросов?

    Механизм обобщения (Query Generalization) активируется, когда система определяет, что для исходного запроса пользователя и конкретного документа в выдаче недостаточно или полностью отсутствуют исторические поведенческие данные в Модели. Это типично для редких, новых или длиннохвостых (long-tail) запросов. Цель обобщения — найти похожий запрос, по которому статистика уже есть.

    Какие методы Google использует для обобщения запроса?

    Патент описывает несколько ключевых методов: удаление стоп-слов (например, предлогов); удаление опциональных терминов (слов, не меняющих интент); замена терминов синонимами; стемминг (приведение слов к основе); и изменение порядка слов (перестановка). Также упоминается частичное совпадение запросов (Partial Query Match), когда совпадают только некоторые термины.

    Как система определяет, насколько можно доверять данным из обобщенного запроса?

    Система использует метрики уверенности, такие как Match Belief Score или Edit Distance. Match Belief Score понижается за каждое примененное обобщение (например, использование синонима штрафуется сильнее, чем удаление стоп-слова). Edit Distance измеряет количество изменений, необходимых для преобразования одного запроса в другой. Чем ниже уверенность или больше дистанция, тем сильнее понижается вес (down-weighting) поведенческих данных, часто с использованием экспоненциального затухания.

    Что такое экспоненциальное затухание (exponential decay) при частичном совпадении запросов?

    Это метод понижения веса поведенческих данных, используемый, когда исходный запрос совпадает с запросом из модели лишь частично. Вес данных уменьшается экспоненциально с увеличением Edit Distance (количества несовпадающих терминов). Это делается для того, чтобы предотвратить переоценку релевантности при слишком свободных совпадениях и учесть потерю семантического контекста.

    Как этот патент влияет на стратегию продвижения по НЧ и long-tail запросам?

    Он критически важен для НЧ-продвижения. Патент показывает, что для успешного ранжирования по long-tail запросам необходимо иметь страницу, которая уже хорошо себя зарекомендовала (имеет положительные поведенческие сигналы) по более популярным или семантически близким запросам. Стратегия должна фокусироваться на создании авторитетных страниц (Topical Authority), которые агрегируют положительные сигналы со всего кластера, что позволит им ранжироваться по НЧ-запросам даже без прямых исторических данных по ним.

    Означает ли этот патент, что точное вхождение ключевых слов больше не важно?

    Точное вхождение остается важным фактором ранжирования, но этот патент показывает, что поведенческие сигналы могут быть перенесены между разными формулировками одного интента. Если страница идеально оптимизирована под точное вхождение, но получает негативные поведенческие сигналы (short clicks), эти сигналы могут ухудшить ее ранжирование по всем связанным запросам. Важнее удовлетворить интент, стоящий за разными формулировками.

    Что такое пропагация данных при уточнении запроса (Query Refinement Propagation)?

    Это механизм, описанный в патенте, при котором поведенческие данные переносятся от уточненного запроса к исходному в рамках одной пользовательской сессии. Например, если пользователь ввел «ресторан», не нашел нужного, затем уточнил «итальянский ресторан Москва центр» и совершил long click на документе, этот положительный сигнал может быть засчитан для этого документа и по исходному запросу «ресторан».

    Как SEO-специалисту использовать знания из этого патента для улучшения контента?

    Необходимо фокусироваться на создании контента, который максимально удовлетворяет интент пользователя (стимулирует long clicks). Контент должен естественно включать синонимы, различные словоформы и отвечать на смежные вопросы. Это позволит странице накапливать положительные поведенческие сигналы из максимально широкого спектра запросов, которые затем будут агрегироваться системой для улучшения ранжирования по всему семантическому кластеру.

    Может ли этот механизм привести к тому, что в выдаче появятся менее релевантные результаты?

    Теоретически да, если система некорректно определит семантическую связь между запросами или если поведенческие данные из обобщенного запроса не отражают релевантность для исходного запроса. Однако для минимизации этого риска Google использует строгие механизмы взвешивания (Match Belief Score, Edit Distance), которые значительно понижают вес данных при низкой уверенности в семантической близости запросов.

    Навигация
    • Описание
    • Детальный разбор
    • Выводы
    • Практика
    • Вопросы и ответы
    • Наверх
    Telegram
    © 2025 SEO HARDCORE

    Type above and press Enter to search. Press Esc to cancel.