requests爬取小说

爬虫的小步骤:

1.url解析

2.发送请求

3.接收返回

4.进行解析

5.存储

小试牛刀

需求:

将国风中文网制定页的小说的题目、作者、最近更新章节和时间抓取下来保存到本地

开始了

小伙伴们,今天我们用的利剑是requests、xpath

第一步:导入模块

import requests

from lxml import etree

import json

第二步:定义类方法

class Yuedu:
    def __init__(self):
       pass
    #1发送数据请求
    def GetPage(self,url):
        pass
    #2解析数据
    def ParsePage(self,html):
        pass
    #3保存数据
    def WritePage(self,item_list):
        pass
    def Startwork(self):
        pass
#实例对象
yuedu = Yuedu()
#开启程序
yuedu.Startwork()

第三步:按照这个思路,完善数据
1 在init中可以设置报头,防止网站反爬,默认是python27
def __init__(self):
    #请求报头
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值