认识爬虫(2)

用爬虫下载简单的页面,可以拿来练手

import requests

class TiebaSpider:
    def __init__(self,tieba_name_crawl):
        """
        初始化必要参数,完成基础设置
        :param tieba_name_crawl:
        """
        self.tieba_name = tieba_name_crawl
        self.url_base = 'https://tieba.baidu.com/f?kw=' + tieba_name_crawl + '&ie=utf-8&pn={}'
        self.headers = {'User_Agent':'WSF'}

    def make_url_list(self):
        """
        生成下载列表
        :return: 下载列表
        """
        return [self.url_base.format(i*50) for i in range(4)]

    def download_url(self,url_str):
        """
        使用requests get方法下载指定页面,并返回页面结果
        :param url_str: 下载链接
        :return: 下载结果
        """
        result = requests.get(url_str,headers = self.headers)
        return result.content

    def save_result(self,result,page_num):
        """
        存储下载内容
        :param result:
        :param page_num:
        :return:
        """
        file_path = "{}-第{}页码.html".format(self.tieba_name,page_num)
        with open(file_path,'wb') as f:
            f.write(result)

    def run(self):
        """
        下载主线程,实现主要的下载逻辑
        :return:
        """
        url_lists = self.make_url_list()
        print(url_lists)
        for url_str in url_lists:
            result_str = self.download_url(url_str)
            p_num      = url_lists.index(url_str) + 1
            self.save_result(result_str,p_num)


if __name__ == '__main__':
    tieba_spider = TiebaSpider('lol')
    tieba_spider.run()
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值