Приложение для проверки неработающих ссылок
Есть ли рабочий стол или веб-приложения, которые будут искать неработающие ссылки на моем веб-сайте?
Я хочу, чтобы он оставался в домене, который я ему предоставляю, и проверял ссылки, которые переходят с одной страницы на другую, а также ссылки, которые переходят на другие сайты. Я хотел бы сообщить 404, 5XX, 3XX и другие ошибки.
5 ответов
Проверка ссылок на рабочем столе
- Ссылка Ксену Sleuth. Свободно. Только для Windows
- DeepTrawl. Коммерческая. Windows & Mac.
- InSpyder. Коммерческая. Только для Windows
- SortSite. Коммерческая. Только для Windows
- LinkScan. Коммерческая. Только для Windows
Сетевые проверки ссылок
- W3C Link Checker. Свободно. Проверяет весь сайт.
- Broken Link Checker Tool - Проверка мертвых ссылок. Проверка сайта: бесплатная, мульти-проверка: бесплатная, автоматическая проверка: коммерческая.
LinkChecker - это бесплатный, лицензированный по GPL валидатор URL.
рекурсивная и многопоточная проверка
выводить в цветном или обычном тексте, HTML, SQL, CSV, XML или графике карты сайта в разных форматах
HTTP/1.1, HTTPS, FTP, mailto:, news:, nntp:, Telnet и поддержка локальных файловых ссылок
ограничение проверки ссылок с помощью фильтров регулярных выражений для URL
поддержка прокси
авторизация имени пользователя / пароля для HTTP и FTP и Telnet
уважает протокол исключения robots.txt
Поддержка куки
Проверка синтаксиса HTML и CSS
Антивирусная проверка
интерфейс командной строки
графический интерфейс клиента
(быстрый) веб-интерфейс CGI (требуется HTTP-сервер)
Вы можете использовать инструмент проверки ссылок W3C - W3C Link Checker.
Я использую надстройку LinkChecker Firefox для проверки отдельных страниц ( проверка W3C - другой, менее дружественный вариант).
Для наборов страниц или целых сайтов ранее упоминавшаяся ссылка Xenu Link Sleuth очень быстрая, поскольку (в отличие от вышеуказанных опций) она проверяет множество ссылок одновременно.
Вы также можете рассмотреть возможность запуска wget
в -spider
Режим. Смотрите http://linux.die.net/man/1/wget для wget
справочные страницы:)
wget -spider <URL>
кажется, в соответствии с тем, что вы спрашиваете.