要下载的是这个网站目录的所有图片,里面是一些手机壁纸。每个图片的url只有文件名是不同的。
curl命令在这是不行的,它的正则匹配只适用于规则的文件名,如foo1,foo2,foo3.....,curl命令要求每个url都是确定的。
单独使用wget命令也不行,wget -r -np -nd 下载目录下的所有文件失败,提示no description,不知道什么原因。
一个不错的处理方法是用lynx或links这种基于CLI的浏览器,dump出所有图片的url,再结合wget进行下载
命令如下:
lynx -dump http://rom.ligux.com/wallpaper/ | egrep -o "http:.*jpg" | xargs -n1 wget
lynx dump选项生成每个链接的地址,egrep过滤出所有图片的地址,wget下载所有图片