爬取百度贴吧实战,python教你如何获取

1,目标:

爬取贴吧每一贴,楼主图,并保存。

由于图片大多是楼主发的,如果全部查找会浪费很多时间。

2,分析

我选择爬取的贴吧为图吧,你们可以选择自己想要爬取的贴吧。

2.1,获取页面

我们将爬取页面的代码写成一个get_html()方法,给他传入url参数

代码如图:

在这里插入图片描述

获取正常,没问题。

我们用chrome的开发者模式来分析每个贴的连接,用定位定位一个帖子,这样方便我们快速的去查找我们想要的信息。

如图:

在这里插入图片描述

2.2利用正则表达式找出我们想要的连接

通过查找,我们发现每个贴都是在class=“col2_right j_threalist_li/_right”下

我们可以让他成为一个标志位,通过它继续往下找,他有两个类名,我们选择后者即可。

<div.?j_threadlist_li_right.?>.?<a.?href="(.?)".?>(.*?)

返回的是一个数组,为了好看我们以字典的方式返回,用yield我们可以理解为返回值,在python基础里会讲,我们将获取的页面作为参数传进去,实现get_url方法。

如图:
在这里插入图片描述

我们来打印一下,看一下获取的是什么?

结果如图:

在这里插入图片描述

很明显,我们需要来拼接一下,获取完整的url,我们点击一个进入,可以发现,url是这样的:https://tieba.baidu.com/p/5768252315,我们得到了后半部分,那就容易了,只需要拼接一下,得到的结果就变成了:

在这里插入图片描述

得到链接后,我们需要再次发送请求,获取到每个贴的内容,即调用我们上面写好的get_html()方法即可。

2.3找到每个帖子楼主发的图片链接

同样的方式,打开开发者模式,找的图片,找出标志位,写出正则,这里就不详细说了,正则为:

实现get_img_url()方法:

在这里插入图片描述

结果图为:

在这里插入图片描述

2.4获取到图片地址后,自然是要下载下来实现write_to_file()方法

下载图片,在上篇文章上已经有实例,

连接:python第二大神器requests

这里直接上代码图:

在这里插入图片描述

里面的正则是用来作为图片名字的,time.sleep(2)是为了爬取慢点

太快会无响应或者报错。

下面我们试一下效果:

在这里插入图片描述

我们来修改一下,来爬取第一页贴种的所有贴,获取楼主贴的总页数

和上面同样的方式找到总页数,并写出获取总页数的正则:

实现get_ye方法,同时点击只看楼主,url会多出see_lz=1

如图:
在这里插入图片描述

2.5由于有些贴吧的贴子很多,我们就选择获取前十页内容,当然你也可以写个方法换取所有页

这里就不实例了,在贴吧里点击下一页我们发现url多出pn=50,由此我们知道50为偏移量,即一页有50个帖子pn=n 是n+1到n+50帖子

2.6整合一下代码,我们用main()方法来调用上面的方法。

如图:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
推荐一下我建的python学习交流扣扣qun:850973621,群里有免费的视频教程,开发工具、
电子书籍、项目源码分享。一起交流学习,一起进步!

作者:小新你蜡笔呢
链接:https://www.jianshu.com/p/27c534394890
来源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值