爬取基础步骤(基础篇)

接下来我以‘糗事百科’为例进行爬取。

思路:

一.创建一个类(命名方式最好是驼峰式)

class QiuShiBaiKe 

二.创建函数(用英语加下划线的方式)

1.初始化必要参数,完成必要设置

    def __init__(self,qiushibaike_name):
        '''
        初始化必要参数,完成必要设置
        :param qiushibaike_name:
        '''
        self.qiushibaike_name = qiushibaike_name
        self.url_base = 'https://www.qiushibaike.com/'+ qiushibaike_name + '/page/{}/'
        self.headers = {'User-Agent':'WSF'}

2.生成下载列表

    def make_url_lists(self):
        '''
        生成下载列表
        :return: 下载列表
        '''
        return [self.url_base.format(i) for i in range(1,11)]

3.使用requests get 的方法下载指定页面,并返回页面结果

ef download_url(self,url_str):
        '''
        使用requests get 的方法下载指定页面,并返回页面结果
        :param url_str: 下载链接
        :return: 下载结果
        '''
        result = requests.get(url_str,headers=self.headers)
        return result.content

4.保存下载结果

    def save_result(self,result,page):
        '''
        保存下载的结果
        :param result:
        :param page:
        :return:
        '''
        file_path = '{}第{}页.html'.format(self.qiushibaike_name,page)
        with open(file_path,'wb') as f:
            f.write(result)

5.下载主线程,实现主要的下载逻辑

    def run(self):
        '''
        下载主线程,实现主要的下载逻辑
        :return:
        '''
        url_lists = self.make_url_lists()
        for url_str in url_lists:
            print(url_str)
            result_url = self.download_url(url_str)
            page       = url_lists.index(url_str) + 1
            self.save_result(result_url,page)

完整代码如下:

import requests

class QiuShiBaiKe:
    def __init__(self,qiushibaike_name):
        '''
        初始化必要参数,完成必要设置
        :param qiushibaike_name:
        '''
        self.qiushibaike_name = qiushibaike_name
        self.url_base = 'https://www.qiushibaike.com/'+ qiushibaike_name + '/page/{}/'
        self.headers = {'User-Agent':'WSF'}

    def make_url_lists(self):
        '''
        生成下载列表
        :return: 下载列表
        '''
        return [self.url_base.format(i) for i in range(1,11)]

    def download_url(self,url_str):
        '''
        使用requests get 的方法下载指定页面,并返回页面结果
        :param url_str: 下载链接
        :return: 下载结果
        '''
        result = requests.get(url_str,headers=self.headers)
        return result.content

    def save_result(self,result,page):
        '''
        保存下载的结果
        :param result:
        :param page:
        :return:
        '''
        file_path = '{}第{}页.html'.format(self.qiushibaike_name,page)
        with open(file_path,'wb') as f:
            f.write(result)

    def run(self):
        '''
        下载主线程,实现主要的下载逻辑
        :return:
        '''
        url_lists = self.make_url_lists()
        for url_str in url_lists:
            print(url_str)
            result_url = self.download_url(url_str)
            page       = url_lists.index(url_str) + 1
            self.save_result(result_url,page)

if __name__=='__main__':
    qiushibaike_name = QiuShiBaiKe('8hr')
    qiushibaike_name.run()

 

转载于:https://www.cnblogs.com/542684416-qq/p/10139279.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值