wget的用法
wget http://place.your.url/here 首页下载
-x 强制建立服务器上一模一样的目录
-nd 参数 那么服务器上下载的所有内容都会加到本地当前目录
-r 会按照递归的方法,下载服务器上所有的目录和文件,实质就是下载整个网站。这个命令一 定 心使用因为在下载的时候,被下载网站指向的所有地址同 样会被下载
-l number 例如只下载两层,那么使用-l 2。
-m 这时wget会自动判断合适的参数来制作镜像站点。此时,wget会登录到服务器上,读入 robots.txt并按robots.txt的规定来执行。
2、断点续传。
-c wget的断点续传是自动的 例如:
wget -c http://the.url.of/incomplete/file
-t 表示重试次数 1.2.3.... 如果设成-t 0 那么表示无穷次重试,直到连接成功
-T 参数表示超时等待时间 例如-T 120,表示等待120秒连接不上就算超时。
3、批量下载。
生成一个文件,把每个文件的URL写一行 生成文件download.txt 然后用命令:wget -i download.txt
这样就会把download.txt里面列出的每个URL都下载下来
4、选择性的下载。
wget -m –reject=gif reject=LIST拒绝接受的文件类型。
–accept=LIST 可以接受的文件类型
例如:
wget -m –reject=gif http://target.web.site/subdirectory
5、密码和认证。
–http-user=USER设置HTTP用户 wget只能处理利用用户名/密码方式限制访问的网站,可以 利用两个参数
–http-passwd=PASS设置HTTP密码 对于需要证书做认证的网站,就只能利用其他下载工具了, 例如curl
6、利用代理服务器进行下载。
如果用户的网络需要经过代理服务器,那么可以让wget通过代理服务器进行文件的下载。此时需要在当前用户的目录下创建一个.wgetrc文件。文件中可以设置代理服务器:
http-proxy = 111.111.111.111:8080
ftp-proxy = 111.111.111.111:8080
分别表示http的代理服务器和ftp的代理服务器。如果代理服务器需要密码则使用:
–proxy-user=USER设置代理用户
–proxy-passwd=PASS设置代理密码
这两个参数。
使用参数–proxy=on/off 使用或者关闭代理。
附录:
命令格式:
wget [参数列表] [目标软件、网页的网址]
-V,–version 显示软件版本号然后退出;
-h,–help显示软件帮助信息;
-e,–execute=COMMAND 执行一个 “.wgetrc”命令
-o,–output-file=FILE 将软件输出信息保存到文件;
-a,–append-output=FILE将软件输出信息追加到文件;
-d,–debug显示输出信息;
-q,–quiet 不显示输出信息;
-i,–input-file=FILE 从文件中取得URL;
-t,–tries=NUMBER 是否下载次数(0表示无穷次)
-O –output-document=FILE下载文件保存为别的文件名
-nc, –no-clobber 不要覆盖已经存在的文件
-N,–timestamping只下载比本地新的文件
-T,–timeout=SECONDS 设置超时时间
-Y,–proxy=on/off 关闭代理
-nd,–no-directories 不建立目录
-x,–force-directories 强制建立目录
–http-user=USER设置HTTP用户
–http-passwd=PASS设置HTTP密码
–proxy-user=USER设置代理用户
–proxy-passwd=PASS设置代理密码
-r,–recursive 下载整个网站、目录(小心使用)
-l,–level=NUMBER 下载层次
-A,–accept=LIST 可以接受的文件类型
-R,–reject=LIST拒绝接受的文件类型
-D,–domains=LIST可以接受的域名
–exclude-domains=LIST拒绝的域名
-L,–relative 下载关联链接
–follow-ftp 只下载FTP链接
-H,–span-hosts 可以下载外面的主机
-I,–include-directories=LIST允许的目录
-X,–exclude-directories=LIST 拒绝的目录
中文文档名在平常的情况下会被编码, 但是在 –cut-dirs 时又是正常的,
wget -r -np -nH –cut-dirs=3 ftp://host/test/
测试.txt
wget -r -np -nH -nd ftp://host/test/
%B4%FA%B8%D5.txt
wget “ftp://host/test/*”
%B4%FA%B8%D5.txt
由 於不知名的原因,可能是为了避开特殊档名, wget 会自动将抓取档名的部分用 encode_string 处理过, 所以该 patch 就把被 encode_string 处理成 “%3A” 这种东西, 用 decode_string 还原成 “:”,并套用在目录与档案名称的部分,decode_string 是 wget 内建的函式。
wget -t0 -c -nH -x -np -b -m -P /home/sunny/NOD32view/ http://downloads1.kaspersky-labs.com/bases/ -o wget.log
wget http://place.your.url/here 首页下载
-x 强制建立服务器上一模一样的目录
-nd 参数 那么服务器上下载的所有内容都会加到本地当前目录
-r 会按照递归的方法,下载服务器上所有的目录和文件,实质就是下载整个网站。这个命令一 定 心使用因为在下载的时候,被下载网站指向的所有地址同 样会被下载
-l number 例如只下载两层,那么使用-l 2。
-m 这时wget会自动判断合适的参数来制作镜像站点。此时,wget会登录到服务器上,读入 robots.txt并按robots.txt的规定来执行。
2、断点续传。
-c wget的断点续传是自动的 例如:
wget -c http://the.url.of/incomplete/file
-t 表示重试次数 1.2.3.... 如果设成-t 0 那么表示无穷次重试,直到连接成功
-T 参数表示超时等待时间 例如-T 120,表示等待120秒连接不上就算超时。
3、批量下载。
生成一个文件,把每个文件的URL写一行 生成文件download.txt 然后用命令:wget -i download.txt
这样就会把download.txt里面列出的每个URL都下载下来
4、选择性的下载。
wget -m –reject=gif reject=LIST拒绝接受的文件类型。
–accept=LIST 可以接受的文件类型
例如:
wget -m –reject=gif http://target.web.site/subdirectory
5、密码和认证。
–http-user=USER设置HTTP用户 wget只能处理利用用户名/密码方式限制访问的网站,可以 利用两个参数
–http-passwd=PASS设置HTTP密码 对于需要证书做认证的网站,就只能利用其他下载工具了, 例如curl
6、利用代理服务器进行下载。
如果用户的网络需要经过代理服务器,那么可以让wget通过代理服务器进行文件的下载。此时需要在当前用户的目录下创建一个.wgetrc文件。文件中可以设置代理服务器:
http-proxy = 111.111.111.111:8080
ftp-proxy = 111.111.111.111:8080
分别表示http的代理服务器和ftp的代理服务器。如果代理服务器需要密码则使用:
–proxy-user=USER设置代理用户
–proxy-passwd=PASS设置代理密码
这两个参数。
使用参数–proxy=on/off 使用或者关闭代理。
附录:
命令格式:
wget [参数列表] [目标软件、网页的网址]
-V,–version 显示软件版本号然后退出;
-h,–help显示软件帮助信息;
-e,–execute=COMMAND 执行一个 “.wgetrc”命令
-o,–output-file=FILE 将软件输出信息保存到文件;
-a,–append-output=FILE将软件输出信息追加到文件;
-d,–debug显示输出信息;
-q,–quiet 不显示输出信息;
-i,–input-file=FILE 从文件中取得URL;
-t,–tries=NUMBER 是否下载次数(0表示无穷次)
-O –output-document=FILE下载文件保存为别的文件名
-nc, –no-clobber 不要覆盖已经存在的文件
-N,–timestamping只下载比本地新的文件
-T,–timeout=SECONDS 设置超时时间
-Y,–proxy=on/off 关闭代理
-nd,–no-directories 不建立目录
-x,–force-directories 强制建立目录
–http-user=USER设置HTTP用户
–http-passwd=PASS设置HTTP密码
–proxy-user=USER设置代理用户
–proxy-passwd=PASS设置代理密码
-r,–recursive 下载整个网站、目录(小心使用)
-l,–level=NUMBER 下载层次
-A,–accept=LIST 可以接受的文件类型
-R,–reject=LIST拒绝接受的文件类型
-D,–domains=LIST可以接受的域名
–exclude-domains=LIST拒绝的域名
-L,–relative 下载关联链接
–follow-ftp 只下载FTP链接
-H,–span-hosts 可以下载外面的主机
-I,–include-directories=LIST允许的目录
-X,–exclude-directories=LIST 拒绝的目录
中文文档名在平常的情况下会被编码, 但是在 –cut-dirs 时又是正常的,
wget -r -np -nH –cut-dirs=3 ftp://host/test/
测试.txt
wget -r -np -nH -nd ftp://host/test/
%B4%FA%B8%D5.txt
wget “ftp://host/test/*”
%B4%FA%B8%D5.txt
由 於不知名的原因,可能是为了避开特殊档名, wget 会自动将抓取档名的部分用 encode_string 处理过, 所以该 patch 就把被 encode_string 处理成 “%3A” 这种东西, 用 decode_string 还原成 “:”,并套用在目录与档案名称的部分,decode_string 是 wget 内建的函式。
wget -t0 -c -nH -x -np -b -m -P /home/sunny/NOD32view/ http://downloads1.kaspersky-labs.com/bases/ -o wget.log
原文地址:http://linux.blogbus.com/logs/46636997.html
tar 打包命令
打包网址
http://www.ixpub.net/thread-619016-1-1.html
[root@linux ~]# tar -cvf /tmp/etc.tar /etc <==仅打包,不压缩!
[root@linux ~]# tar -zcvf /tmp/etc.tar.gz /etc <==打包后,以 gzip 压缩
[root@linux ~]# tar -jcvf /tmp/etc.tar.bz2 /etc <==打包后,以 bzip2 压缩
# 特别注意,在参数 f 之后的文件档名是自己取的,我们习惯上都用 .tar 来作为辨识。
# 如果加 z 参数,则以 .tar.gz 或 .tgz 来代表 gzip 压缩过的 tar file ~
# 如果加 j 参数,则以 .tar.bz2 来作为附档名啊~
# 上述指令在执行的时候,会显示一个警告讯息:
# 『tar: Removing leading `/” from member names』那是关於绝对路径的特殊设定。
输入
tar cvf www.tar dir皮堆
生成
www.tar