爬虫学习系列(十)--- 爬取4k图片

对于乱码情况的处理:

手动设定响应数据的编码格式

response.encoding = "utf-8"

通用处理解决乱码的方案

img_name = img_name.encode('iso-8859-1').decode('gbk')

完整代码实现:

from lxml import etree
import requests
import os

# UA伪装
headers = {
    'User-Agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.183 Safari/537.36"
}

# # 爬取到页面的源码数据
url = 'http://pic.netbian.com/4kmeinv/'
response = requests.get(url=url,headers=headers)
# 手动设定响应数据的编码格式
# response.encoding = "utf-8"
page_text = response.text


# 数据解析  src的属性值

tree = etree.HTML(page_text)
li_list = tree.xpath('//div[@class="slist"]/ul/li')
# 创建一个文件夹
if not os.path.exists('./piclibs'):
    os.mkdir('./piclibs')
for li in li_list:
    img_src = "http://pic.netbian.com"+li.xpath("./a/img/@src")[0]
    img_name = "http://pic.netbian.com"+li.xpath("./a/img/@alt")[0]+".jpg"
    #通用处理解决乱码的方案
    img_name = img_name.encode('iso-8859-1').decode('gbk')
    print(img_name, img_src)
    # 请求图片进行持久化存储
    img_data = requests.get(url=img_src,headers=headers).content
    img_path = 'piclibs/'+img_name

    with open(img_path,'wb') as fp:
        fp.write(img_data)
        print(img_name,"下载成功")


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

gm0012

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值