url用法详解

 

  curl的命令行工具功能非常强大,这些数据交互的功能基本上都是通过URL方式进行的,我们先来看看curl对多个URL的灵活操作,这些规则使我们的批处理需求应用起来非常方便。

 

   1、用{}表示多个URL

   http://site.{one,two,three}.com,只要在{}中写上不同的部分,就可以表示3URL了。

========查看命令帮助========
[root@localhost ~]# curl -h
[root@localhost ~]# curl -s -I 
-s/--silent        Silent mode. Don't output anything 
-I/--head          Show document info only
HTTP/1.1 200 OK
Server: cofcoweb
Date: Tue, 28 Apr 2015 02:46:00 GMT
Content-Type: text/html; charset=gbk
Content-Length: 587705
Last-Modified: Tue, 28 Apr 2015 02:42:13 GMT
Connection: keep-alive
Vary: Accept-Encoding
ETag: "553ef385-8f7b9"
Accept-Ranges: bytes

HTTP/1.1 200 OK
Server: nginx
Date: Tue, 28 Apr 2015 02:46:00 GMT
Content-Type: text/html; charset=gbk
Content-Length: 587810
Last-Modified: Tue, 28 Apr 2015 02:45:22 GMT
Connection: keep-alive
Vary: Accept-Encoding
ETag: "553ef442-8f822"
Accept-Ranges: bytes

HTTP/1.1 200 OK
Server: nginx
Date: Tue, 28 Apr 2015 02:46:00 GMT
Content-Type: text/html; charset=gbk
Content-Length: 587705
Last-Modified: Tue, 28 Apr 2015 02:42:13 GMT
Connection: keep-alive
Vary: Accept-Encoding
ETag: "553ef385-8f7b9"
Accept-Ranges: bytes

HTTP/1.1 200 OK
Server: nginx
Date: Tue, 28 Apr 2015 02:46:00 GMT
Content-Type: text/html; charset=gbk
Content-Length: 587705
Last-Modified: Tue, 28 Apr 2015 02:42:13 GMT
Connection: keep-alive
Vary: Accept-Encoding
ETag: "553ef385-8f7b9"
Accept-Ranges: bytes

HTTP/1.1 200 OK
Server: nginx
Date: Tue, 28 Apr 2015 02:46:00 GMT
Content-Type: text/html; charset=gbk
Content-Length: 587705
Last-Modified: Tue, 28 Apr 2015 02:42:13 GMT
Connection: keep-alive
Vary: Accept-Encoding
ETag: "553ef385-8f7b9"
Accept-Ranges: bytes

   2、用[]表示多个URL

   ftp://ftp.numericals.com/file[1-100].txtftp://ftp.numericals.com/file[001-100].txtftp://ftp.letters.com/file[a-z].txt []中表示按数字或字母的顺序排列。

   还能表示不连续的排列,如http://www.numericals.com/file[1-100:10].txthttp://www.letters.com/file[a-z:2].txt":" 后面的数字表示等差排列的阶跃数。

 

   3、结合起来使用

   http://any.org/archive[1996-1999]/vol[1-4]/part{a,b,c}.html

 

 

   curl命令行工具的基本语句为:curl [options] [URL...],即 curl [选项] [下载地址]

因此,如果你想下载百度的首页,最简单的方法启动cmd,进入curl安装目录,输入命令:curl http://www.baidu.com,回车,你的输出窗口将立即出现百度首页的html数据。

   对于所有的布尔型option,基本上--option表示支持这个选项,--no-option表示禁用这个选项。

下面总结几个比较有用的 options

 

   1-o/--output <file>

   这个基本上要算最常用的选项了,用于将下载的数据保存到某个文件中。

例:将百度首页保存在baidu.com文件中

[root@kaibin ~]# curl -o baidu.com http://www.baidu.com
  % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current
                                 Dload  Upload   Total   Spent    Left  Speed
100 88558    0 88558    0     0  16355      0 --:--:--  0:00:05 --:--:-- 2059k

root@kaibin ~]# ll -h baidu.com 
-rw-r--r--. 1 root root 87K 1月   9 03:42 baidu.com

下载过程中标准输出还会显示下载的统计信息,比如进度、下载字节数、下载速度等。如果指定输出为"-",则下载数据会输出到标准输出。

   如果输出的文件是一个多级目录的话,则要配合--create-dirs选项,--create-dirs将自动创建设置的输出目录。

   如果希望保存到本地的文件名和服务器上的相同,就可以直接用-O选项(大写O),而省去指定本地文件名。

   如果下载多个数据文件,可以使用上面提到的多URL规则。下载文件名也可以批量自定义,就是使用"#"。可以将"#"加到文件名当中,这样实际文件名中的#将被多个URL中的当前字符串代替,如 curl http://{site,host}.host[1-5].com -o "#1_#2"#1将被"site""host"代替,#2将被1-5之间的数字代替,也就是被当前被处理的URL中的字符串代替。

   另外下载数据的时候,可以加个"-#"选项,用一个进度条来代替文本表示进度。

 

   2-c/--cookie-jar <file name> -b/--cookie <name=data>

   这是两个操作cookie的选项,很多服务器是需要cookie信息的。用前一个选项可以指定一个文件,将其他文件中的cookie或者从服务器得到的 cookie写到文件中;后一个选项则用来向服务器发送cookie信息,可以用"name=data"的形式,也可以直接跟一个保存cookie的文件名。

 

   3-x/--proxy <proxyhost[:port]>

   该选项为http指定代理及端口,如果不指定端口,默认为1080。如 curl-x 201.36.208.19:3128 http://curl.haxx.se/

 

   4-u/--user <user:password> -U/--proxy-user <user:password>

   登录某些页面或ftp需要先进行认证,输入用户名和密码。curl的这个选项可以直接处理这类操作,用指定的账号和密码进行登录认证。

   后面的选项指定代理的用户名和密码,这样便可以直接用这个代理访问网页了,如 curl -U user:password -x201.36.208.19:3128 http://curl.haxx.se/

 

   5-A/--user-agent <agent string>

   该选项可以指定客户端类型,服务器通过该选项判断用户应用的平台及浏览器信息。如 curl -A "Mozilla/4.0 (compatible;MSIE 6.0; Windows NT 5.0)" http://www.clientinfo.com

表示告诉服务器,客户端是运行在Windows2000系统上的IE6.0

 

   6-d/--data <data>

   该选项用来以POST方式向http服务器发送特定数据,最常用的就是提交表单。

curl -d "user=username&password=111" http://www.login.com,表示用账号username和密码111向站点发送登录申请。其中多个数据段可以用"&"进行连接一起发送;

如果数据前面加上符号"@",则数据来源为后面指定的文件,如 curl -d password=@D:\pw.txt http://www.login.com

 

  7-C/--continue-at <offset>

   改选项提供断点续传功能,与-o选项配合使用。如 curl -c -O http://vfile.home.news.cn/music/public/vd05/200905/31/a8/MUfs052009053117155750a8be70.mp3。如果指定offset,则从offset的位置开始续传。

如果未指定offset,或者直接用"-C-",则curl会自己分析该从什么位置开始续传。

 

 8-r/--range <range>

   该选项指定下载字节的范围,常应用于分块下载文件。range的表示方式有多种,如100-500,则指定从100开始的400个字节数据;-500表示最后的500个字节;5000-表示从第5000个字节开始的所有字节;另外还可以同时指定多个字节块,中间用","分开。如

[root@kaibin ~]# curl -r 0-1024000 -o new_divide_1.tar.gz http://archive.ipython.org/release/1.2.1/ipython-1.2.1.tar.gz
  % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current
                                 Dload  Upload   Total   Spent    Left  Speed
100 1000k  100 1000k    0     0   8506      0  0:02:00  0:02:00 --:--:--  7644
[root@kaibin ~]# curl -r 1024001-2048000 -o new_divide_2.tar.gz http://archive.ipython.org/release/1.2.1/ipython-1.2.1.tar.gz
  % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current
                                 Dload  Upload   Total   Spent    Left  Speed
100 1000k  100 1000k    0     0   9515      0  0:01:47  0:01:47 --:--:-- 10332
[root@kaibin ~]# curl -r 2048001- -o new_divide_3.tar.gz http://archive.ipython.org/release/1.2.1/ipython-1.2.1.tar.gz
  % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current
                                 Dload  Upload   Total   Spent    Left  Speed
 97 6463k   97 6298k    0     0   6946      0  0:15:52  0:15:28  0:00:24  3967
 
 [root@kaibin ~]# ll new_divide_*
-rw-r--r--. 1 root root 1024001 1月   9 04:16 new_divide_1.tar.gz
-rw-r--r--. 1 root root 1024000 1月   9 04:18 new_divide_2.tar.gz
-rw-r--r--. 1 root root 6449473 1月   9 04:34 new_divide_3.tar.gz

合并文件:
[root@kaibin ~]# cat new_divide_* > ipython-1.2.1.tar.gz

   curl -r 0-1024000 -o new_divide_1.mp3 http://vfile.home.news.cn/music/public/vd05/200905/31/a8/MUfs052009053117155750a8be70.mp3&

   curl -r 1024001-2048000 -o new_divide_2.mp3 http://vfile.home.news.cn/music/public/vd05/200905/31/a8/MUfs052009053117155750a8be70.mp3&

   curl -r 2048001- -o new_divide_3.mp3 http://vfile.home.news.cn/music/public/vd05/200905/31/a8/MUfs052009053117155750a8be70.mp3

   这样就会将目标mp3文件分块下载为3个文件,然后可以用doscopy命令:copy new_divide_1.mp3/b +new_divide_2.mp3/b + new_divide_3.mp3/b new_divide.mp3即可将3个分块文件合并为一个完整的mp3文件。

 

   9-w/--write-out <format>

   该选项格式化输出一些用户操作的数据信息,用到的格式化输出符除了"\n""\r""\t"这些常见转义符外,还包括"@""%"。其中"@filename"表示输出filename文件中的数据,"@-"表示输出用户写入标准输入的数据;"%"标识符后面跟上定义的关键字,则可以输出对应的curl数据,常用的关键字有:

   http_code —— 上次操作返回的响应码;

   time_total —— 上次操作耗时,单位为秒;

   time_connect —— TCP连接远程主机的耗时,单位为秒;

   time_pretransfer —— 文件真正开始传输之前交互耗时,单位为秒,可能主要包括一些命令处理和协议分析的耗时;

   time_starttransfer —— 文件的第一个字节开始传输之前的耗时,单位为秒,包括time_pretransfer和服务器计算结果的时间;

   size_download —— 下载的总字节数;

   size_upload —— 上传的总字节数;

   size_request —— 发送http请求的总字节数;

   speed_download —— curl成功下载的平均下载速度;

   speed_upload —— curl成功上传的平均上传速度;

   举例:curl -o page.html -s -w%{time_connect}:%{time_starttransfer}:%{time_total} http://curl.haxx.se/,其中-s表示安静模式,即略去所有状态信息。

 

   10--connect-timeout <seconds> -m/--max-time <seconds>

   前者表示允许的连接的最长耗时,单位为秒;后者表示允许的整个操作的最长耗时,单位为秒,这个选项对于控制一个批处理操作的时长非常有用。

 

   11--limit-rate <speed> -Y/--speed-limit <speed> -y/--speed-time <time>

   --limit-rate <speed>指定最大的数据传输率,单位为bytes/s,也可以用'k''K'表示kb/s'm''M'表示mb/s'g' 'G'表示gb/s,所给的speed为平均传输率,短时间峰值可能会超过此值;

-Y/--speed-limit <speed>指定最小传输率,单位为bytes/s,如果小于speed值,则传输中止,如此时-y选项没有被设置,默认time 30-y/--speed-time <time>指定-Y选项的有效时间段,如果-Y选项没有被设置,默认为1

 

    12--max-filesize <bytes>



   该选项指定所要下载的文件的最大长度,如果超过bytes值,则下载并不开始,curl返回退出码63

 

   13--retry <num> --retry-delay<seconds> --retry-max-time <seconds>

   当传输过程中出现错误,如超时、FTP 5xx返回码或者HTTP5xx返回码,curl会进行按照设置进行重试,这几个选项都与重试有关。--retry <num>设置重试次数,--retry-delay<seconds>设置两次重试的间隔时间,--retry-max-time <seconds>设置两次重试间隔的最长时间。默认情况下,curl不进行重试;如果重试,第一次间隔1秒,之后每次都间隔上一次的2倍时间,直到间隔时间达到10分钟,之后的重试都将采用10分钟间隔。如果这3个选项的值被重新设置,则执行设置值。

 

   14-T/--upload-file <file>

   该选项是上传命令,如向http服务器上传一个文件:curl -T D:\new_divide.mp3 http://www.uploadserver.com/path/;向一个ftp服务器上传文件:curl -T D:\new_divide.mp3 -uuser:password ftp://upload_site:port/path/

 

 

   curl定义了一组"EXIT CODES",用来标识在出现错误时的相关信息,目前范围从1-83,具体信息可以查阅curl库自带的文档。这些退出码对于我们分析错误及原因有很大帮助。


15.查看出口的外网IP地址

[root@kaibin ~]# curl ifconfig.me
123.112.108.205