循环爬取图片_如何创建自己的图片库?写个Python爬虫来搞定

爬取图片

http://www.ivsky.com 这个网站上有很多壁纸,动漫类型的图片都挺好看,本文练习用 Python 爬取这些图片并存储到本地。

实现过程

1.站点分析
点开这个站点,选择 动漫壁纸,开发者模式下,定位到图片区域所在的 ul ,可以看到选择特征是 class="ali"。同时 “下一页” 按钮里面是下一页的 URL 全路径,样式为 class="next-page"。有了这两项信息,就能爬取完整的动漫图片了。

2.代码编写
流程主要分为两步:
第一步:解析 img 标签的 src 属性,请求图片,存储文件到本地;
第二步:解析下一页的链接。

循环爬取,直到解析不到下一页链接为止,代码为:

import requestsfrom bs4 import BeautifulSoupimport os#爬取 url 对应的 html 内容def getHtmlOfUrl(url):try:r=requests.get(url)r.raise_for_status()r.encoding=r.apparent_encodingreturn r.textexcept:return ""#获取页面的img 图片并保存到本地def getPic(html):soup = BeautifulSoup(html,'html.parser')all_img = soup.find('ul',class_='ali').find_all('img')#解析下一页的 URL 地址next_page = soup.find('a',class_='page-next')next_page_url = ''try:next_page_url = next_page['href']except:print('解析下一页 URL失败')#遍历保存当前页面的图片for img in all_img:src = img['src']img_url = src#保存图片到本地,获取 / 以后的最后一部分的文件名path = "./image/"+img_url.split('/')[-1]try:if not os.path.exists(path):r = requests.get("https:"+img_url)with open(path,'wb') as f:f.write(r.content)f.close()print('文件保存成功')else:print('文件已存在')except:print('爬取失败')#返回下一页连接 return next_page_url#主流程def main():    ##域名,需要拼接到下一页 URL 中domain = "https://www.ivsky.com"#首页处理firstPage = "https://www.ivsky.com/bizhi/dongman/";html = getHtmlOfUrl(firstPage)nextPageUrl = getPic(html)        #循环爬墙下一页while(nextPageUrl != ''):nextPageUrl=domain+nextPageUrlprint("爬取下一页的数据",nextPageUrl)html = getHtmlOfUrl(nextPageUrl)nextPageUrl = getPic(html)#img 位于 class="all" 的 ul 中#爬取动漫图片地址:https://www.ivsky.com/bizhi/dongman/#下一页连接

3.运行结果

3a194dfe38673869c7f4824b3e3d0dff.png

启示录

requests 是爬虫模块,少写一个 s 的,程序进入 error 分支,但是没有打印异常,无法跟踪错误,所以异常分支应该打印堆栈错误,而非自定义的错误信息。

参考链接 ,根据该文的基本操作,修正代码错误、添加下一页爬取逻辑后完成本文。

这个网站基本上没有反爬措施,全都是图片,也不需要头域。又一次被 “ 派神 ” 的简洁、好用折服了!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值