2021-08-27-CR-002Python爬虫,用pyquery + urllib.request下载图片

爬虫下载精美图片
测试网站为:https://pic.netbian.com/4kdongwu/

from pyquery import PyQuery as  pq
import urllib.request as urq
import urllib.response
headers = {
'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.61 Safari/537.36'
}


doc=pq(url='https://pic.netbian.com/4kdongwu/')
a=doc('#main ul li a ')

mylist=[]
for i  in a:
    mylist.append(i.attrib['href'])
print(mylist)

dec='https://pic.netbian.com'
addr = 'pic.netbian.com'


for  i in mylist:
    xx=pq(url=dec+i)
    # hr=xx('.photo-pic #img img')
    hr=xx('#main .photo .view .photo-pic img') #.photo .view .photo-pic
    xxy=hr.attr('src')
    name=xxy.split('/')[-1]


    #  T urllib
    request=urq.Request(dec+xxy,headers=headers)
    response=urq.urlopen(request)

    with open('vm3/'+name,'wb') as f:
        f.write(response.read())

代码的步骤是
1.设置响应头
2.用pq获取数据doc
3.将首页 小图片里面的链接属性加到列表
在这里插入图片描述
这是小图片
4.针对列表里面的每个网址提取后面的大图的地址

在这里插入图片描述
这是大图片
5.取得网址后分解得到文件名
6.用urllib的request获取图片数据

7.保存图片

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Amoor123

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值