linux wget 整站克隆/仿站 整个网站的静态源码下载到本地 4种扒站工具(webzip、ha_TeleportPro、Offline Explorer、wget)

 还是这个好用

wget -r -p -np -k wjsou.com

https://baike.baidu.com/item/wget

-r --recursive(递归下载) specify recursive download.
-p --page-requisites(下载所有的图片等页面显示所需的内容) get all images, etc. needed to display HTML page.
-np --no-parent(不追溯至父级,有的人只采集网站的一个子链接,就不会采集它的上级) don't ascend to the parent directory.
-k --convert-links (将下载的HTML页面中的链接转换为相对链接即本地链接)make links in downloaded HTML point to local files.
额外参数:

-nc  断点续传
-o   生成日志文件
-accept=iso 选项,这指示 wget 仅下载 i386 目录中所有扩展名为 iso 的文件。你也可以指定多个扩展名,只需用逗号分隔即可。
-l, --level=NUMBER 最大递归深度 (inf 或 0 代表无穷).

  • 1
    点赞
  • 1
    评论
  • 0
    收藏
  • 一键三连
    一键三连
  • 扫一扫,分享海报

相关推荐
©️2020 CSDN 皮肤主题: 精致技术 设计师:CSDN官方博客 返回首页
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、C币套餐、付费专栏及课程。

余额充值