原文地址:
http://www.linuxjournal.com/content/downloading-entire-web-site-wget
也许你曾需要下载整个站点,比如是想离线浏览其内容,wget可以完成这项工作。比如:
$ wget \
--recursive \
--no-clobber \
--page-requisites \
--html-extension \
--convert-links \
--restrict-file-names=windows \
--domains website.org \
--no-parent \
www.website.org/tutorials/html/
这条命令将把站点www.website.org/tutorials/html全部下载下来。
命令解释:
--recursive 递归下载整个站点
--no-clobber 不要覆盖已有文件(以防下载被中断而重新开始)
--domains website.org 不要下载website.org以外的链接地址
--no-parent 不要下载tutorials/html目录之外的内容
--page-requisites 下载所有页面需要的元素(图像、CSS等等)
--html-extention 只下载html相关的文件
--convert-links 转换链接地址,从而本地离线可以正常访问
--restrict-file-names=windows 修改文件名以使文件也可以在windows下访问(某些情况文件名在Linux下合法而在windows下非法)。