利用python爬取百度贴吧源码

import requests

class tieba(object):
    def __init__(self,tieba_name):
        self.tieba_name = tieba_name
        self.start_url = 'https://tieba.baidu.com/f?kw=' + tieba_name + '&ie=utf-8&pn={}'
        self.headers = {'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) '
                                     'AppleWebKit/537.36 (KHTML, like Gecko) '
                                     'Chrome/70.0.3538.77 '
                                     'Safari/537.36'}

    def get_url_list(self):
        #构造url列表
        url_list = []
        for i in range(10):
            url_list.append(self.start_url.format(i*50))
        print(url_list)
        return url_list


    def parse_url(self,url):
        response = requests.get(url,headers = self.headers)
        return response.content.decode()


    def save_html(self,html,num):
        with open('英雄联盟贴吧源码/'+self.tieba_name+'-'+"第"+str(num)+"页.html",'w',encoding='utf-8') as f:
            f.write(html)


    def run(self):
        # 构造url列表
        url_list = self.get_url_list()
        for url in url_list:
            print(url)
            #发送请求,得到响应
            html = self.parse_url(url)
            page_num = url_list.index(url)+1
            #保存
            self.save_html(html,page_num)


if __name__ == '__main__':
    tb = tieba("英雄联盟")
    tb.run()

效果如下:
在这里插入图片描述

最下面main方法中可以传任意参数,各种贴吧名字,自己保存的时候是可以看到源码的,但是如果点击在浏览器中是打不开整个网页的,百度做了防爬处理,把大部分源码都写在了注释里面<!-- >,在通过json做处理展现整个网页

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值