Делаем оффлайновую копию сайта в Linux

Иногда нужно скопировать сайт на CD или флешку чтобы смотреть в офлайне, например для презентации или в качестве подарка. Скопировать рекурсивно по ссылкам динамический сайт и поменять текст страниц чтобы ссылки работали с носителя, без подключения к интернету, со всеми картинками, стилями и скриптами — дело нетривиальное. В Linux для этого есть два распространенных инструмента: wget и httrack. В Debian присутствуют одноименные пакеты. Под Windows, впрочем, тоже можно достать эти программы.

Для wget команда такая:

wget --mirror -p --html-extension --convert-links http://www.example.com/

Для httrack такая:

httrack "http://www.example.com/" -O "./www.example.com" "+*.example.com/*" -v

В простых случаях должно хватать wget. При проблемах с работой JavaScript в сохраненной копии сайта помогает httrack.

Блог: RU Linux

wget -rk http://www.example.com/

wget -rEkp -np -nc http://site.com/