Скачать сайт с WayBack Machine
Я нашел отличный сайт на компьютере WayBack, который в настоящее время не работает, и домен продается. Я хотел использовать его в автономном режиме. Я пытался использовать WinHTTrack, но он только сохраняет домашнюю страницу, из-за структуры машины WayBack.
Я использую Windows, и я был бы признателен за любую помощь, чтобы помочь мне загрузить его.
Благодарю.
2 ответа
Только заметил, что этот вопрос, заданный несколько лет назад, все еще открыт. Хотя в то время мне не удалось найти подходящего варианта, кроме обычного сканера, с тех пор на таких сайтах, как GitHub, появилось несколько вариантов. Хотя я лично не использовал ни один из них, я хотел бы задокументировать это здесь для тех, кто все еще ищет способ сделать это.
Примером является hartator/wayback-machine-downloader , который, по-видимому, не зависит от платформы (Ruby .gem). Он описывает, как это работает, следующим образом:
Он загрузит последнюю версию каждого файла, присутствующего на Wayback Machine, в ./websites/example.com/. Он также воссоздаст структуру каталогов и автоматически создаст страницы index.html для бесперебойной работы с Apache и Nginx. Все загруженные файлы являются оригинальными, а не переписанными версиями Wayback Machine. Таким образом, структура URL-адресов и ссылок такая же, как и раньше.
Надеюсь, это поможет кому-то, у кого та же проблема, что и у меня много лет назад. Собираюсь отметить это как решенное, если у кого-то нет лучшего ответа.
Хотя мы обычно не делаем рекомендации по продукту на этом сайте - я бы посоветовал вам заглянуть в проект J-Spider ( http://j-spider.sourceforge.net/). Этот продукт позволяет полностью загружать веб-сайты, а также делать тесты ссылок, создавать карты сайтов... все виды.
Это довольно полезный кусок комплекта.