Скачать сайт с WayBack Machine

Я нашел отличный сайт на компьютере WayBack, который в настоящее время не работает, и домен продается. Я хотел использовать его в автономном режиме. Я пытался использовать WinHTTrack, но он только сохраняет домашнюю страницу, из-за структуры машины WayBack.

Я использую Windows, и я был бы признателен за любую помощь, чтобы помочь мне загрузить его.

Благодарю.

2 ответа

Только заметил, что этот вопрос, заданный несколько лет назад, все еще открыт. Хотя в то время мне не удалось найти подходящего варианта, кроме обычного сканера, с тех пор на таких сайтах, как GitHub, появилось несколько вариантов. Хотя я лично не использовал ни один из них, я хотел бы задокументировать это здесь для тех, кто все еще ищет способ сделать это.

Примером является hartator/wayback-machine-downloader , который, по-видимому, не зависит от платформы (Ruby .gem). Он описывает, как это работает, следующим образом:

Он загрузит последнюю версию каждого файла, присутствующего на Wayback Machine, в ./websites/example.com/. Он также воссоздаст структуру каталогов и автоматически создаст страницы index.html для бесперебойной работы с Apache и Nginx. Все загруженные файлы являются оригинальными, а не переписанными версиями Wayback Machine. Таким образом, структура URL-адресов и ссылок такая же, как и раньше.

Надеюсь, это поможет кому-то, у кого та же проблема, что и у меня много лет назад. Собираюсь отметить это как решенное, если у кого-то нет лучшего ответа.

Хотя мы обычно не делаем рекомендации по продукту на этом сайте - я бы посоветовал вам заглянуть в проект J-Spider ( http://j-spider.sourceforge.net/). Этот продукт позволяет полностью загружать веб-сайты, а также делать тесты ссылок, создавать карты сайтов... все виды.

Это довольно полезный кусок комплекта.

Другие вопросы по тегам