Место для ваших идей

Оставляйте пожелания по работе Вебмастера

Добавить URL страницы к позиции

Avatar
  • обновлен

Здравствуйте!
Добавьте пожалуйста (хотябы в выгрузку и API) URL страницы, по которой есть позиция. 

Это позволит:

- отсортировав по URL, сразу получить ключевые запросы сгруппированные по страницам

- выгрузив запросы в свою базу данных, понять по каким ключам меняется релевантная страница

Avatar
Chuck TLT

+ к автору. Много времени уходит на группировку ключей по урлам.  Подобная сортировка значительно ускорила бы процесс.

Avatar
Александр Кишкурно

+

Этот функционал однозначно нужен. Анализ 150к ключей занимает много времени и сил, хотя разработчикам нужно просто объединить это все в один массив данных. Элементарно, дополнить фразы в Я.Директ быстро не предоставляется возможным.

Avatar
Дмитрий Глотов

Плюсую. Инфа ценная, но сразу применять в работе нельзя, нужна сортировка фраз по url

Avatar
Егоров Пётр

Целиком и полностью согласен.

Avatar
Алексей Жуков

"Добавьте пожалуйста (хотябы в выгрузку и API) URL страницы, по которой есть позиция"


это очень плохое решение, что вы будите делать если по 1 запросу показывалось 50 разных url?


получив список  url, стоит использовать фильтр для получения запросов по каждому url

(не проверял такую возможность, вроде она есть, вопрос только насколько корректно будет работать ApiTextualOperation над url)

"text_filters": [
      {
        "text_indicator": "URL",
        "operation": "TEXT_CONTAINS",
        "value": "some string"
      }
    ],
Avatar
Алексей Ч
Цитата от Алексей Жуков

"Добавьте пожалуйста (хотябы в выгрузку и API) URL страницы, по которой есть позиция"


это очень плохое решение, что вы будите делать если по 1 запросу показывалось 50 разных url?


получив список  url, стоит использовать фильтр для получения запросов по каждому url

(не проверял такую возможность, вроде она есть, вопрос только насколько корректно будет работать ApiTextualOperation над url)

"text_filters": [
      {
        "text_indicator": "URL",
        "operation": "TEXT_CONTAINS",
        "value": "some string"
      }
    ],

Мне известно, что отправляя фильтр по урлу я буду получать его ключи, сложность начинается когда у тебя сайты на 10к+ страниц и надо по каждой странице собрать ядро. А если сайт в нескольких регионах, это кратно увеличивает кол-во запросов.

В описанном вами примере с 50ю урлами в день на одном ключе, думаю можно найти решение и такой экзотической ситуации. Например показывать самый часто встречающийся вариант урла или последний урл на день предоставляемых данных, для описаных задач этой точности достаточно. 

Avatar
Платон Щукин

Алексей, здравствуйте! Благодарю за предложение! Добавили в список идей наших пользователей. Обязательно подумаем с командой над возможностью реализации этой функциональности в будущем 🙌

Avatar
Алексей Жуков
Цитата от Алексей Ч

Мне известно, что отправляя фильтр по урлу я буду получать его ключи, сложность начинается когда у тебя сайты на 10к+ страниц и надо по каждой странице собрать ядро. А если сайт в нескольких регионах, это кратно увеличивает кол-во запросов.

В описанном вами примере с 50ю урлами в день на одном ключе, думаю можно найти решение и такой экзотической ситуации. Например показывать самый часто встречающийся вариант урла или последний урл на день предоставляемых данных, для описаных задач этой точности достаточно. 

в этом как раз нет сложности, модель данных в excel из нескольких связанных таблиц справиться с данной задачей

1 таблица дат

2 таблица уникальных url

3 таблица уникальных запросов

4 таблица гео

5 таблица дата_гео_запрос_значения(показы,клики,позиция,спрос)_устройства

6 таблица дата_гео_url_значения(показы,клики,позиция)_устройства

ограничения на 2 миллиарда строк в таблице хватит за глаза

хотя правильнее использовать нормальную бд, быстрее работать будет

P.S. и да по каждой странице смысла нет собирать, при таком количестве страниц, далеко не все из них появляются в органике

Avatar
Алексей Ч
Цитата от Алексей Жуков

в этом как раз нет сложности, модель данных в excel из нескольких связанных таблиц справиться с данной задачей

1 таблица дат

2 таблица уникальных url

3 таблица уникальных запросов

4 таблица гео

5 таблица дата_гео_запрос_значения(показы,клики,позиция,спрос)_устройства

6 таблица дата_гео_url_значения(показы,клики,позиция)_устройства

ограничения на 2 миллиарда строк в таблице хватит за глаза

хотя правильнее использовать нормальную бд, быстрее работать будет

P.S. и да по каждой странице смысла нет собирать, при таком количестве страниц, далеко не все из них появляются в органике

Мне очень импонирует идея получения "сырых данных", а дальше кому как надо так их и скомпанует. Надеюсь ребята из Яндекса запилят такое для энтузиастов, а мы отстанем с просьбами запилите то, сделайте это :)

Avatar
Алексей Жуков
Цитата от Алексей Ч

Мне очень импонирует идея получения "сырых данных", а дальше кому как надо так их и скомпанует. Надеюсь ребята из Яндекса запилят такое для энтузиастов, а мы отстанем с просьбами запилите то, сделайте это :)

тут проблема в объёме, просто посчитайте количество строк которое вы желаете получить в выгрузке, 1 запрос и 34 разных url (это реальный пример) которые показывались в выдаче,

при заявленном объёме разных запросов в 150тыс за 2 недели это уже 5млн строк +

и подобных запросов реально много

а если учесть поиск по сайту, то любой запрос это до 50 возможных url

поэтому только api