Top
Skydown - сайты, реклама, ... / Программы  / SERP Parser — может ли пригодиться в дорвействе?
Serp Parser - программа для определения позиций

SERP Parser — может ли пригодиться в дорвействе?

Среди обязательного софта любого дорвейщика есть дорген и парсеры. А что может предложить SERP Parser?

Сразу хочу оговориться — Дорвей очень многогранное слово и каждый понимает его в меру своей подготовленности. Для кого-то это 1000 сайтов с контентом «ключи в столбик», а кто-то делает массово сайты и тоже считает это дорвеями(или ДДЛ).

Кроме того, поисковые системы развиваются и вычисление дорвеев происходит всё быстрее. Косвенно это связано с большим объёмом страниц, которые добавляются на сайт сразу(отложенная публикация спасает, но не сильно). С учетом этого был произведен эксперимент и SERP Parser была одной из главных программ, которая использовалась на разных этапах.

Суть эксперимента — сделать несколько сайтов в 2 этапа — первый это начальная генерация страниц и заливка, второй — анализ позиций и дозаливка.

1 этап — подготовка и генерация.

Для первого этапа нам нужно всего лишь 100 ключевых слов. Можно больше, но 100 это необходимый минимум. Выбираем ключевики хорошо — чистим от мусора, фильтруем и отбираем 2-3-4 словные ВЧ-СЧ фразы, самые популярные для этой тематике. Где брать ключи рассказывать не буду — тема для отдельной статьи.

После этого генерируем сайты-дорвеи, количество — кто сколько может и считает нужным, выбор доменов(дропы или свежереги). Лично я делаю от 10 до 25 доров, используя дорген Зевс. Т.к. ключей мало нужно сделать следующим образом — все 100 ключей использовать на каждом домене с разбавкой коротким предложением (3-5 слов), взятым из снипетов или текстовки. Следующие этапы желательны, но не обязательные — новым сайтам нужно помочь проиндексироваться и набрать ссылочный профиль, небольшой проспам может в этом помочь. В случае использовании дроп-доменов эти этапы можно пропустить.

Далее добавляем доры в панель вебмастеров и ждем первого трафика или появления поисковых запросов. И плавно переходим к этапу 2.

2 этап — анализ и дозаливка.

Теперь переходим к анализу и тут вступает в игру SERP Parser.

Особенность парсинга ПС в этой программе в том, что она парсит выдачу по ключам и не учитывает количество доменов для анализа — то, что нужно дорвейщику. Имея 100 изначальных ключей программа сделает 100 запросов к ПС, а сколько там доменов искать в выдаче неважно — хоть 1, хоть 100.

Создаем новый проект в SERP Parser — в качестве цели выбираем любой дор из пачки, но и остальные добавляем в качестве «своих сайтов». В качестве ключей добавляем нашу изначальную сотню и запускаем анализ. Я использую ПС Яндекс и Гугл, этого минимально достаточно.

После проверки не удивляйтесь — позиций у вас скорее всего не будет, но будет статистика по конкурентам. Среди них можно выбрать специализированные сайты и собрать с них ключевые слова на будущее.

По прошествии некоторого времени(обычно неделя или 2) у вас в кабинете вебмастера наберется статистика ключевых слов(запросов) — по которым показывался ваш сайт. Выгружаем их, слегка фильтруем от мусора.

Готовимся к новому анализу — в проекте SERP Parser к ключевым словам(изначальная сотня) добавляем те, которые мы выгрузили из кабинета вебмастера и ключи конкурентов, но желательно общее количество ограничить 1000 шт. Этого хватит для анализа и дозаливки новых страниц. Запускаем проверку и ждём результаты.

Для ускорения процесса парсинга ПС Яндекс рекомендую использовать XML лимиты — стабильный и быстрый способ.

Смотрим отчет и видим — по ключевикам из вебмастера(да и по остальным тоже) должны появиться позиции — выгружаем отчет в котором есть ссылка, анкор и описание(сниппет) — его нужно использовать при генерации новых статей для перелинковки, т.е. в новые статьи должна быть вставлена ссылка на страницу, которая уже имеет позиции в ПС. Вид ссылки должен быть разный — от безанкорного до анкорного + текст из сниппета.

Теперь дозаливка. У нас есть 1000 ключей, по сравнению с первой генерацией — больше на порядок, но всё равно далеко от количества ключей, которые используют настоящие дорвейщики. Генерируем на каждый домен 1000 страниц используя перелинковку, основанную на отчёте SERP Parsera, желательно использовать отложенную публикацию, растянутую на 10-20 дней(число пока экпериментальное, но на него стоит ориентироваться).

На этом основные действия закончены, но 100+1000 страниц мало, поэтому спустя некоторое время нужно повторить этап 2 — анализ и дозаливка, причем постепенно увеличивая количество ключей. Если всё сделано правильно и боги ПС в хорошем расположении духа при следующих проверках вы увидите рост позиций:

Serp parser - рост позиций

Serp parser — рост позиций

В SERP Parser проект стоит разделить на 2 группы — в одну выделить ключевые слова, по которым у сайта есть позиции, во вторую — все остальные. Первая группа должна быть меньше, проверка её будет занимать меньше времени. Вторую нужно проверять реже, но при появлении позиций — переносить соответствующие ключи в первую группу.

Что получаем на выходе:

  1. Сайт с постепенно нарастающим количеством страниц.
  2. «Правильную» перелинковку.
  3. Усиление веса страниц за счёт внутренней перелинковки.

Сайты(СДЛ, ДДЛ), сделанные таким образом могут получить санкции от поисковиков только за качество контента или метод слива. Из нескольких пачек, сделанных летом 2018 года в бан улетело только 3 сайта с пометкой от Яндекс — дорвей, малополезный контент. В гугле живы все.

Статистика одного сайта

Статистика одного сайта

 

Заключение.

Создание дорвеев с каждым годом выходит на новый уровень — если раньше можно было работать по принципу — бери больше, кидай дальше, то сейчас принцип меняется на — лучше меньше, да лучше. Огромные Семантические ядра всё равно нужны, но можно достичь определённых используя меньшее количество ключевиков более высокого качества. Кстати, анализировать ключи тоже можно с помощью SERP Parser. Больше внимания нужно уделять анализу страниц — иногда, некоторые страницы, прокачанные с помощью внутренней перелинковки дают приличное количество трафа и он растёт вместе с ростом позиции этой страницы.

Касательно самой программы Serp Parser — ничего плохого сказать не могу. Софт достаточно старый, прошёл проверку временем, не заброшен и продолжает развиваться, регулярно выходят апдейты, которые вносят правки, если ПС меняют разметку и прочее. В общем — рекомендую дорвейщикам и не только. Для работы с несколькими проектами подойдёт только максимальная версия — SERP Parser Professional. Цены, различия и подробности смотрите на сайте программы. Есть демо-версия с полным функционалом на 2 недели.

 

SERP Parser —  перейти на сайт —  скачать демо —  купить Pro-версию.