Comparser: обзор программы для технического аудита сайта
Перед продвижением сайта нужно привести в порядок его внутренности — убрать дубли, проверить битые ссылки, длину заголовков и выполнить еще несколько десятков рутинных действий.
Традиционный инструмент оптимизатора для этих задач — Xenu Link Sleuth. Но программа немного устарела — интерфейс, формат вывода отчёта, ограниченный функционал.
Аналог — Screaming Frog Seo Spider, кусается: 99 фунтов в год.
Несколько дней назад ко мне в руки попал для обзора новый на рынке софт — Компарсер от Александра Алаева.
Поскольку я давно и постоянно пользуюсь Чектрастом, интересно было подержать и покрутить новую программу.
Знакомство
Компарсер умеет решать несколько стандарных повседневных задач.
Проверять дубли страниц и битые ссылки краулером.
Есть преднастройки на 14 шаблонов и возможность создания персонального шаблона. Можно сканировать по списку урлов или xml-карте сайта.
Сохранять проект.
Приятно удивила возможность настройки автосохранения проекта.
Донастраивать файл для роботов.
И возможность проверить и скорректировать robots.txt на лету, перед началом сканирования.
Так я узнал, что после обновления блога MODx заменил мой роботс на стандартный.
Сканировать сверх указанной глубины.
Понравилось предложение продолжить сканирование по достижении лимита по глубине.
Экспортировать данные в эксельки.
Результат в два клика можно экспортировать в Эксель.
Нестандартные штуки
Несколько настроек сразу меня покорили.
Программа умеет проверять и сравнивать индексацию сайта в Гугле и Яндексе.
Это пять. Великолепно.
Моментально можно увидеть проблемные зоны. На моём скромном сайте эффект виден сразу.
На порталах от 100 000 страниц — видно целые разделы не в индексе.
Удаление УРЛ-ов в один клик.
По клику на «Найдено в Яндексе, не обнаружено на сайте» можно в один клик получить список мусорных, старых или удалённых страниц.
Ненужные урлы можно пакетно удалять из выдачи Яндекса.
В один клик!
Если посмотреть наоборот, то видно, какие страницы можно отправлять на социальные прогоны и пингаторы.
Полезные плюшки, которые не поместились в обзор:
- даты индексации страниц в Гугле и Яндексе;
- проверка орфографии заголовков;
- не умирает на проектах 50 000 + страниц;
- возможность построить структуру сайта и выгрузить её.
Резюме
Ценность программы — проверка и сравнение данных в комплексе: краулер, Яндекс, Гугл.
Буду использовать для плановых аудитов сайта и проверки проблемных зон в индексации.
Жду онлайн-сервис :)
Купить программу можно по ссылке: http://parser.alaev.info/buy/, попробовать демо тут: http://parser.alaev.info/demo/.
Комментарии:
← Видеокурс для асессоров Яндекса по оценке релевантности веб-страниц ∙ SEO-совет №1: как сменить основной e-mail в Sape →