2021-05-23

本文介绍了使用Python进行网络爬虫,从指定高清图片网站抓取图片的过程。首先设置请求头以伪装浏览器,然后解析HTML源码,利用BeautifulSoup和正则表达式定位图片URL。由于原始链接非高清,需二次请求获取高清图片地址。最后通过requests下载图片并保存。过程中涉及异常处理、网页结构分析及正则表达式应用,提升了对爬虫和反爬虫策略的理解。
摘要由CSDN通过智能技术生成

 

python练习小项目,爬虫爬取高清图片可视化

  1. 问题描述

通过python代码爬取某高清网站的图片。

本实验实现爬取url=https://pic.netbian.com/的高清图片

 

 
 

获取图片步骤:

  1. 先请求进入页面并且成功获取源代码。
  2. 查看网页源代码,根据网络结构找到要获取的部分
  3. 细化结构到图片的url(需要打开图片看是不是高清链接,如果不是高清链接需要再次请求访问页面再进行获取)
  4. 精确定位图片的url之后下载,并且以jpg格式逐个保存到目标地址。
  1. 解决方案

 注:需要先下载requests库和bs4库环境.(!pip install requests.  !pip install bs4)

       

  1. 首先对自己访问的头文件进行封装,避免被直接检查为垃圾软件。

head = {        "User-Agent":"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.181 Safari/537.36"

   }

访问页面:request = urllib.request.Request(url = url,headers = head)

获取页面源代码:response = urllib.request.urlopen(request)

存储到Html中: Html = response.read().decode('gbk')

                异常处理:

            except urllib.error.URLError as e:

             网页报错代码捕获 418等等

               if hasattr(e,"code"):

                   print(e.code)

                if hasattr(e,"reason"):

                   print(e.reason) 

        2

        检查源代码后发现目标图片定位到某的ul结构下:

        BeautifulSoup库中的soup.find_all方法获取html源代码中的class= clearfix       部分,再使用正则表达式匹配找到图片准确路径。

         soup=BeautifulSoup(html,"html.parser")

        ul=soup.find_all("ul",class_="clearfix")

        正则表达式匹配:

        link = re.compile('<a href="(.*?)"',re.S)

        hreflist = re.findall(link,str(i))

 

       

 

3

但是由于发现不是高清图片地址,所以需要再次请求新的图片页面!

检查源代码发现,真正的高清图片地址隐藏在https://pic.netbian.com/tupian/27301.html页面下。

 

重新定位并且找到图片地址!

             #再单独请求网站

            html=askurl(fixhref)

            soup=BeautifulSoup(html,"html.parser")

            imglist = soup.find_all('div',class_='photo-pic')[0]

 

            #正则表达式匹配找到图片准确路径

              imglink = re.compile('src="(.*?)"',re.S)

              imgsrc = re.findall(imglink,str(imglist))[0]

 

        4、下载!

            通过requests.get方法下载图片,格式str(images)+ '.jpg 正在保存...'

            下载到data/images中,代码如下:

            images = requests.get(imgsrc).content

            print(str(images)+ '.jpg 正在保存...')

            with open(r'data/images{}'.format(temp) + ".jpg"'wb')as fp:

                fp.write(images)

            temp += 1   

      结果展示:           

  1. 总结

通过学习,掌握到了许多爬虫知识,并且了解和熟悉了一些反爬虫的知识,以及正则表达式的简单运用,不过很多网站都会有反爬虫代码,和反爬虫的一些动作,比如爬取小米网站是就因为多次大量请求数据而被封掉了IP,所以要想爬取自己想到的数据,最难的感觉就是如何请求页面获取数据,一些成熟的网站反爬虫机制很强大,很难进行爬取数据,要想大量和多次爬取就更难了,还要多掌握一些更加专业的方法和技巧。

 

 

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值