Как использовать wget для получения копий документов сайта Google Code?
У меня есть проект Google Code, в котором есть много вики-документации. Я хотел бы создать копию этой документации для просмотра в автономном режиме. Я хотел бы использовать wget
или аналогичная утилита.
Я пробовал следующее:
$ wget --no-parent \
--recursive \
--page-requisites \
--html-extension \
--base="http://code.google.com/p/myProject/" \
"http://code.google.com/p/myProject/"
Проблема в том, что ссылки внутри зеркальной копии имеют такие ссылки:
file:///p/myProject/documentName
Такое переименование ссылок таким способом вызывает 404 (не найденных) ошибок, поскольку ссылки указывают на то, что они не действуют в файловой системе.
Какие варианты я должен использовать вместо wget
чтобы я мог сделать локальную копию документации сайта и других страниц?
2 ответа
Если URL выглядит так:
https://code.google.com/p/projectName/downloads/detail?name=yourFILE.tar.gz
Превратите это в:
$wget https://projectName.googlecode.com/files/yourFILE.tar.gz
Это прекрасно работает для меня.
После долгих тренировок мне удалось заставить работать на меня следующее:
$ wget --no-parent \
--recursive \
--page-requisites \
--html-extension \
--convert-links \
-E -l 3 \
http://code.google.com/p/myProject/
Результат полностью автономен, сейчас.