Comparser: обзор программы для технического аудита сайта


Перед продвижением сайта нужно привести в порядок его внутренности — убрать дубли, проверить битые ссылки, длину заголовков и выполнить еще несколько десятков рутинных действий.

Традиционный инструмент оптимизатора для этих задач — Xenu Link Sleuth. Но программа немного устарела — интерфейс, формат вывода отчёта, ограниченный функционал.

Аналог — Screaming Frog Seo Spider, кусается: 99 фунтов в год.

Несколько дней назад ко мне в руки попал для обзора новый на рынке софт — Компарсер от Александра Алаева.

Поскольку я давно и постоянно пользуюсь Чектрастом, интересно было подержать и покрутить новую программу. 

Знакомство

Компарсер умеет решать несколько стандарных повседневных задач.

Проверять дубли страниц и битые ссылки краулером.
Есть преднастройки на 14 шаблонов и возможность создания персонального шаблона. Можно сканировать по списку урлов или xml-карте сайта.

настройка юзер-агента

Сохранять проект.
Приятно удивила возможность настройки автосохранения проекта.

Донастраивать файл для роботов.
И возможность проверить и скорректировать robots.txt на лету, перед началом сканирования.

Так я узнал, что после обновления блога MODx заменил мой роботс на стандартный.

настройка краулера

Сканировать сверх указанной глубины.
Понравилось предложение продолжить сканирование по достижении лимита по глубине.

глубина сканирования

Экспортировать данные в эксельки.

Результат в два клика можно экспортировать в Эксель.

сортировка тайтлов по длине

Нестандартные штуки

Несколько настроек сразу меня покорили.

Программа умеет проверять и сравнивать индексацию сайта в Гугле и Яндексе.

Это пять. Великолепно.

Моментально можно увидеть проблемные зоны. На моём скромном сайте эффект виден сразу.

статистика краулера

На порталах от 100 000 страниц — видно целые разделы не в индексе.

Удаление УРЛ-ов в один клик.

По клику на «Найдено в Яндексе, не обнаружено на сайте» можно в один клик получить список мусорных, старых или удалённых страниц.

Ненужные урлы можно пакетно удалять из выдачи Яндекса.

В один клик!

удаление урл из Яндекса

Если посмотреть наоборот, то видно, какие страницы можно отправлять на социальные прогоны и пингаторы.

найдено и не найдено в Яндексе и Гугле


Полезные плюшки, которые не поместились в обзор:

  • даты индексации страниц в Гугле и Яндексе;
  • проверка орфографии заголовков;
  • не умирает на проектах 50 000 + страниц;
  • возможность построить структуру сайта и выгрузить её.

Резюме

Ценность программы — проверка и сравнение данных в комплексе: краулер, Яндекс, Гугл.

Буду использовать для плановых аудитов сайта и проверки проблемных зон в индексации.

Жду онлайн-сервис :)

Купить программу можно по ссылке: http://parser.alaev.info/buy/, попробовать демо тут: http://parser.alaev.info/demo/.





Комментарии:


Видеокурс для асессоров Яндекса по оценке релевантности веб-страницSEO-совет №1: как сменить основной e-mail в Sape