wget
-i
从文件获取url
-t
设置请求次数 此处为一坑,默认会重试20次,若设置为0,则表示无限制
-O
指定内容写入的文件
-S
打印出响应信息但不下载任何文件
--spider
不下载任何文件
-T
设置超时时间
-w
设置重试间隙时间
--no-proxy
关闭代理
-Q
设置下载最大容量
--limit-rate
设置最大下载速度
-c
断点续传
-4
仅连接IPv4地址
-6
仅连接IPv6地址
-nd
不创建文件夹
-x
强制创建文件夹
--load-cookies=FILE
从文件加载cookie
--save-cookies=FILE
会话结束时保存cookie到文件
示例
下载文件并以指定名字保存 wget -O wordpress.zip http://www.xxx.com/download?id=1080
限速下载 wget --limit-rate=300k http://www.xxx.com/download.zip
断点续传 wget -c http://www.xxx.com/download.zip
后台下载 wget -b http://www.xxx.com/download.zip
,可以使用tail -f wget-log
查看下载进度
伪装代理名称下载 wget --user-agent="Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.16 (KHTML, like Gecko) Chrome/10.0.648.204 Safari/534.16" http://www.xxx.com/download.zip
验证下载链接 wget --spider URL
如果下载链接有效,则显示为:
Spider mode enabled. Check if remote file exists.
HTTP request sent, awaiting response... 200 OK
Length: unspecified [text/html]
Remote file exists and could contain further links,
but recursion is disabled -- not retrieving.
如果链接无效,则显示为:
Spider mode enabled. Check if remote file exists.
HTTP request sent, awaiting response... 404 Not Found
Remote file does not exist -- broken link!!!
参考文档:
1. 每天一个linux命令(61):wget命令
2. wget –help