Python爬虫实战:批量下载网站图片

本文介绍了使用Python爬虫批量下载百度图片的方法。首先,通过分析百度图片的URL发现pn参数控制页数,每页最多60张图片。然后,利用正则表达式匹配网页源代码中的objURL,获取原始图片链接,并将其保存到本地。通过get_parse_page函数获取指定页数的图片链接,再调用save_to_txt函数创建文件夹并下载图片。
摘要由CSDN通过智能技术生成

1.获取图片的url链接


首先,打开百度图片首页,注意下图url中的index

在这里插入图片描述

接着,把页面切换成传统翻页版(flip),因为这样有利于我们爬取图片!

在这里插入图片描述

对比了几个url发现,pn参数是请求到的数量。通过修改pn参数,观察返回的数据,发现每页最多只能是60个图片。

注:gsm参数是pn参数的16进制表达,去掉无妨

  • 26
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值