Seo-сканер сайта

Данный инструмент позволяет собирать все внутренние ссылки с сайта, после чего обрабатывает их и получает такую информацию как:

  • Заголовок браузера (title)
  • Описание страницы (description)
  • Заголовок страницы (h1)
  • Ответ сервера (server response)

На выходе вы получите сводную таблицу с результатами, которую можно будет для удобства скопировать, например, в Excel.

Как с этим работать

Всё очень просто. В первое поле вы вводите адрес сайта, который необходимо обработать (в любом виде: http://site.ru, site.ru). Далее, если вам необходимо, чтобы сканер не собирал какие-то урлы, то для этого есть поле "Правила исключения". Исключения построены по принципу регулярных выражений. Но в принципе достаточно ввести часть ссылки, по которой нужно исключить ее из сбора, и это будет отлично работать.

Например, если вы не хотите собирать информацию о страницах с новостями (вида /news/nazvanie_novosti/), то в правилах исключения можно записать просто /news/ Если же вы не хотите собирать ссылки с GET-параметрами, то добавьте в правила исключения правило \?

Если возникнут какие-либо вопросы, не стесняйтесь, задавайте их в комментариях.

Укажите сайт:


Правила исключения (по одному на каждой строчке)


Глянуть ссылки



Шаг1. Сбор ссылок.

0%
0%

Шаг2. Сбор информации по найденным ссылкам.

0%
0%

Шаг3. Формирование отчета.

0%
0%
  • Использую серсис для ежедневной работы, пока литлбит работатает, я не ем печеньки, а успеваю в 2 раза больше!
  • Добрый день! Подскажите, пожалуйста, что означает результат проверки - "null"? С уважением, Владимир
  • Здравствуйте, Владимир! В настоящий момент сканер работает не совсем корректно, к сожалению. Я планирую переработать его с нуля, но пока не знаю, когда.
  • Спасибо, Максим, успокоили! Уже начал искать в интернете ответ на это вопрос :))) Вовремя остановили :)
  • Уже не работает
  • Все работает. Просто подождать надо.
  • неплохой сервис понравился. только как сохранить?