今天想分享一下自己是怎么样在智联招聘网站进行的爬虫。
注意哦,本文是以学习为目的的,没有任何的恶意想法。本人也不会将爬虫所得的数据进行售卖或者分享。这里只分享手法。
首先打开https://www.zhaopin.com/beijing/后,发现网站的request中似乎并没有什么很强的反爬机制。于是ctrl+u分析源码
使用这张图中的关键词在网页源码中进行分析看看能不能找到什么吧~
然后发现了这个东西:
然后定睛一看这不就是json嘛~
愉快的丢json beautifier里面看一眼~
想要的东西json里看来都有了~
所以普通的header带一个User-Agent应该就行了
代码走一个:
import requests, re, json
if __name__ == '__main__':
page = requests.get('https://www.zhaopin.com/beijing/')
headers =