爬取贴吧数据:
1.输入要爬取贴吧的名称(例如:海贼王)
2.输入起始页和终止页(1-2)
3.把每一页的内容保存到本地(例如1.html 2.html)
思路:
页数的规律
https://tieba.baidu.com/f?kw=%???&pn=0 第一页
https://tieba.baidu.com/f?kw=%???&pn=50 第二页
https://tieba.baidu.com/f?kw=%???&pn=100 第三页
pn = (page-1)*50
获取网面的内容(发起请求获取响应)
保存数据
# @ Time : 2021/2/21 16:55
# @ Author : Ellen
import urllib.request
import urllib.parse
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.75 Safari/537.36'
}
# 主体架构
name = input('请输入贴吧的名字:')
begin = int(input('请输入起始页:'))
end = int(input('请输入结束页'))
kw = {
'kw': name}
kw = urllib.parse.urlencode(kw)
# 拼接url 发请求 获响应
for i in range(begin, end+1):
pn = (i-1)*50
# print(pn) https://tieba.baidu.com/f?kw=%???&pn=0
baseurl = 'https://tieba.baidu.com/f?'
url = baseurl + kw + '&pn=' + str(pn)
# print(url)
# 发起请求
req = urllib.request.Request(url, headers=headers