python爬虫,爬取起点网站小说

本文介绍如何使用Python的bs4和os模块爬取起点网站的玄幻小说信息。通过分析https://www.qidian.com/xuanhuan的接口,设置防爬策略,封装BeautifulSoup,实现对多页小说链接的抓取。
摘要由CSDN通过智能技术生成

使用python再来做一次爬虫:主要抓取玄幻类型的小说
目标网址:起点
使用模块:bs4,os模块
基本思路:
获取需求页面的元素代码,装到bs4容器里面,然后进行操作

首先获取接口:https://www.qidian.com/xuanhuan,可以看到,亲求方法是get
在这里插入图片描述
首先获取玄幻小说的所有页面元素代码,然后装到bs4容器里进行操作:

url = "https://www.qidian.com/xuanhuan"
method = 'get'
headers = {
   "user-agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64)","Referer":"https://www.qidian.com"}
res = requests.get(url,headers=headers)
res.encoding = 'utf-8'
# print(res.text)
soup = BeautifulSoup(res.text,'html.parser')
xuanhuan = soup.select('.book-list')
print('book-list:',xuanhuan)
number = 0

headers是对一些防爬机制的简单处理
因为有很多的页面和链接。所有建议把 BeautifulSoup直接封装:

from bs4 import BeautifulSoup
import requests
class soupx:
    def soup(self,method,url):
        headers = {
   "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64)", "Referer": "https://www.qidian.com"}
        res = requests.request(method,url,headers=headers)
        res.encoding = 'utf-8'
        soup = BeautifulSoup(res.text,'html.parser')
        return soup

完整代码块:

import os
from reptile.soup4 import soupx
import time

path = 'D:/xiaoshuo/'
#windows不能创建自带的目录,添加逻辑判断
if os.path.exists(path):
    print('目录已经存在')
    flag = 1
else:
    os.makedirs(path)
    flag = 0


url = "https://www.qidian.com/xuanhuan"
method = 'get'
# headers = {"user-agent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64)","Referer":"https://www.qidian.com"}
soup = soupx().soup(method=method,url=url)
#把bs操作模块封装成一个类,后面直接调用这个模块
# res = requests.get(url,headers=headers)
# res.encoding = 'utf-8'
# print(res.text)
# soup = BeautifulSoup(res.text,'html.parser')
xuanhuan = soup.select('.book-list')
print('book-list:',xuanhuan)
number = 0
for book in xuanhuan:
    #获取所有玄幻日周月前十的内容
    print('book:',book)
    soup1 = book.select('a')
    soup1.pop(1)
    soup1.pop(1)
    soup1.pop(1)
    number += 1
    
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python爬虫是一种用于自动化数据抓取的技术,常用于从网站上获取信息。如果你想爬取起点中文网的排行榜数据,你需要使用Python的一些库,如BeautifulSoup、Requests或Scrapy等。这里是一个简单的步骤概述: 1. **安装必要的库**: 首先,确保你已经安装了`requests`库,用于发送HTTP请求,以及`lxml`或`html.parser`(如果你用BeautifulSoup的话)来解析HTML。 2. **发送请求**: 使用`requests.get()`函数向起点中文网的排行榜URL发送GET请求,获取网页源代码。 ```python import requests url = "https://www.qidian.com/rank" response = requests.get(url) ``` 3. **解析HTML**: 解析响应内容,找到包含排行榜数据的部分。这通常涉及到选择器技术,如BeautifulSoup的`.select()`方法,或正则表达式。 ```python from bs4 import BeautifulSoup soup = BeautifulSoup(response.text, 'lxml') ranking_list = soup.select('.book-rank .title') # 假设排名在这些元素中 ``` 4. **提取数据**: 对每个找到的排行榜条目,提取出所需的信息,如书名、作者、评分等。 5. **保存数据**: 将爬取的数据存储到文件、数据库或结构化的数据类型(如pandas DataFrame)中。 ```python data = [] for item in ranking_list: title = item.text.strip() # 提取标题 ... # 提取其他信息 data.append({ 'title': title, 'author': ..., # 提取作者 'rating': ... # 提取评分 }) ``` 6. **处理可能的问题**: 考虑到网站可能会有反爬机制(如验证码、限制请求频率等),你可能需要添加适当的延迟(使用`time.sleep()`)并处理异常。 7. **合法性与道德**: 在进行网络爬虫时,务必遵守网站的使用条款和robots.txt协议,尊重版权,不要频繁对服务器造成压力。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值