python3爬取指定百度贴吧页面并保存成本地文档(批量爬取贴吧页面数据)

首先我们创建一个python文件, tieba.py,我们要完成的是,输入指定百度贴吧名字与指定页面范围之后爬取页面html代码,我们首先观察贴吧url的规律,比如:

发现规律了吧,贴吧中每个页面不同之处,就是url最后的pn的值,其余的都是一样的,我们可以抓住这个规律(kw表示贴吧名,采用url编码)。
清楚了url规则,我们便可以利用urllib进行批量式数据爬取,代码如下:

# -*- coding:utf-8 -*-
from urllib import request as urllib2
from urllib import parse
import random

def loadPage(url, page):
    '''
    根据url获取服务器响应文件
    url:需要爬取的url
    '''
    print('---------正在下载页面%d-------' % page)
    ua_list = [
        "Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv2.0.1) Gecko/20100101 Firefox/4.0.1",
        "Mozilla/5.0 (Windows NT 6.1; rv2.0.1) Gecko/20100101 Firefox/4.0.1",
        "Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11",
        "Opera/9.80 (Windows NT 6.1; U; en) Presto/2.8.131 Version/11.11",
        "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11"
    ]
    header = random.choice(ua_list)
    request = urllib2.Request(url)
    request.add_header('User-Agent', header)
    response = urllib2.urlopen(request)
    html = response.read()
    return html

def write(html, page):
    '''
    将html文件写入本地
    :param html: 服务器响应文件内容
    :return:
    '''
    data = html
    file_name = 'tieba{}.txt'.format(page)
    print('---------正在保存文件%s-------'%file_name)
    # 运用with open as语句使代码更加简洁 避免写异常处理和文件关闭语句
    with open(file_name,'w',encoding='utf-8') as file:
        file.write(data.decode())
    print('---------success!---------')


def tiebaSpider(url, kw, begin, end):
    '''
    爬取贴吧信息
    '''
    words = {
        'kw':kw
    }
    kw = parse.urlencode(words)
    url = url % (kw)
    for page in range(begin, end + 1):
        pn = ((page-1)*50)
        ful_url = url + str(pn)
        html = loadPage(url, page)
        write(html, page)

if __name__ == '__main__':
    kw = input('请输入爬取贴吧名:')
    beginPage = int(input('请输入起始页:'))
    endPage = int(input('请输入结束页:'))
    url = r'http://tieba.baidu.com/f?%s&pn='
    tiebaSpider(url, kw, beginPage, endPage)

控制台结果如下:

请输入爬取贴吧名:河南
请输入起始页:1
请输入结束页:3
---------正在下载页面1-------
---------正在保存文件tieba1.txt-------
---------success!---------
---------正在下载页面2-------
---------正在保存文件tieba2.txt-------
---------success!---------
---------正在下载页面3-------
---------正在保存文件tieba3.txt-------
---------success!---------

Process finished with exit code 0
  • 0
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

wangbowj123

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值