入门学习爬取贴吧图片(附完整代码),2021/1/27有效

记录一下爬虫学习爬取贴吧图片,按照以下b站视频教学,2021/1/27亲测有效,不会被封ip。
Python爬虫实战讲解:爬取百度贴吧全站图片

结果如下(手动打码):
在这里插入图片描述

源代码和笔记如下:

#多页爬取

'''
需要环境
requests,parsel(xpath)

步骤
1.确定url地址
2.发送请求
3.解析数据(数据筛选)<两层数据解析>
4.保存数据(本地文件)
'''

#requests实现帮助请求数据的要求
import requests
import parsel

page_num = 0
#换页
for page in range(0,55000+1,50):
    page_num+=1
    print('===========================正在爬取第{}页数据===================='.format(str(page_num)))
    #1.确定url地址
    #先确定它是静态网页还是动态网页
    #静态网页:源代码都有网页的数据,并且没有经过浏览器的渲染以及加载
    #判断静态数据:在源代码中搜索的到
    url = 'https://tieba.baidu.com/f?ie=utf-8&kw=%E7%BA%A6%E4%BC%9A%E5%90%A7&fr=search&pn={}'.format(str(page))
    #之后准备请求参数
    #刷新页面后,Chrome的Network栏所有的数据包都可以呈现
    #user-agent更换为了ie浏览器,方便后面的操作
    headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WoW64; Trident/7.0; rv:11.0) like Gecko'}

    #2.发送请求
    response = requests.get(url,headers=headers)
    #状态码:200左右表示请求成功,300左右表示重定向,400左右表示URL地址有错误,500左右表示服务器错误
    html_data = response.text #字符串类型数据,只能使用正则表达式
    #print(html_data)

    #3.解析数据(数据筛选)<两层数据解析>
    #为了获得最高清的图片,而不是缩略图
    #数据解析第一层:解析所有帖子的《链接》
    #将字符串数据转换成Selector对象;该对象有re(正则表达式),css选择器,xpath路径选择器
    html = parsel.Selector(html_data)
    #print(html)
    #两个/(双斜杠)表示跨节点提取,[@...]通过标签的属性值进行精确定位,标签层级递增的关系/div/a...,取到标签后获得href属性
    #同样也返回Selector对象,getall提取出解析到的数据
    title_url = html.xpath('//div[@class="threadlist_lz clearfix"]/div/a/@href').getall()
    #部分url的地址,和前面的地址拼接起来去实现
    #print(title_url) #['/p/7203233304', '/p/7197583050'...]

    #拼接url地址
    #前半部分的url
    second_url = 'https://tieba.baidu.com'
    for url in title_url:
        all_url = second_url + url
        print('当前的帖子链接为:', all_url)

        # 第二层:再发送一次url请求,获得页面数据,随后解析出图片地址
        #再次发送请求,请求帖子内部的数据
        response_2 = requests.get(url=all_url,headers=headers).text
        #第二次解析
        response_2_data = parsel.Selector(response_2)
        result_list = response_2_data.xpath('//cc/div/img[@class="BDE_Image"]/@src').getall()
        #print(result_list) #['http://tiebapic.baidu.com/forum/w%3D580/sign=d941e7678413b07ebdbd50003cd69113/4d456709c93d70cf1974ca4befdcd100bba12b60.jpg', 'http://tiebapic.baidu.com/forum/w%3D580/sign=b6dbbb9a1ffa513d51aa6cd60d6c554c/b74ee5dde71190ef5192bc99d91b9d16fcfa6081.jpg']

        for li in result_list:
            #图片数据,需要content(二进制数据)
            img_data = requests.get(url=li,headers=headers).content
            #4.保存数据(本地文件)
            #图片的文件名和后缀
            #'http://tiebapic.baidu.com/forum/w%3D580/sign=d941e7678413b07ebdbd50003cd69113/4d456709c93d70cf1974ca4befdcd100bba12b60.jpg'
            file_name = li.split('/')[-1]
            #\\表示把文件保存到该文件夹下,mode文件写入方式(二进制wb)
            with open('img\\'+file_name,mode='wb') as f:
                f.write(img_data)
                print("正在保存:",file_name)
  • 5
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值