起点爬虫爬取全部书籍

起点的爬虫没有什么特殊的难点,就以基本的爬虫步骤简单的看一下,不说上代码
// A code block
import csv
import json

from lxml import etree

import requests

class QiDianSpider(object):

def __init__(self):
    self.base_url="https://www.qidian.com/all?orderId=&style=1&pageSize=20&siteid=1&pubflag=0&hiddenField=0&page={}"
    self.headers={
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.102 Safari/537.36"
    }
    self.items=[]

def get_url_list(self):
    return [self.base_url.format(start)for start in range(0,201)]


def save_item(self,item):
    self.items.append(item)


def run(self):
    url_list=self.get_url_list()
    for url in url_list:
        response = requests.get(url,headers=self.headers)
        html = response.content.decode("utf-8")
        eroot = etree.HTML(html)
        rows= eroot.xpath('//ul[@class="all-img-list cf"]/li')
        print(rows)
        for row in rows:
            item={}
            item["title"]=row.xpath('.//h4/a')[0].xpath('./text()')[0]
            item["author"] = row.xpath('./div[@class="book-mid-info"]/p[@class="author"]//a[@class="name"]')[0].xpath('./text()')[0]
            print(item)
            self.save_item(item)
    with open('起点.json', 'w', encoding='utf-8') as f:
        json.dump(self.items, f, ensure_ascii=False, indent=2)

    # 实现保存 csv 格式文件
    # 1. 创建一个写入文件对象
    out_file = open('起点.csv', 'w', encoding='utf-8')

    # 2. 创建 csv 写入对象
    writer = csv.writer(out_file)

    # 写入标题
    writer.writerow(self.items[0].keys())

    # 写入内容
    for item in self.items:
        writer.writerow(item.values())

    out_file.close()

    pass

if name == ‘main’:
spider=QiDianSpider()
spider.run()

爬虫面向对象的思想

Python爬虫是一种用于自动化数据抓取的技术,常用于从网站上获取信息。如果你想爬取起点中文网的排行榜数据,你需要使用Python的一些库,如BeautifulSoup、Requests或Scrapy等。这里是一个简单的步骤概述: 1. **安装必要的库**: 首先,确保你已经安装了`requests`库,用于发送HTTP请求,以及`lxml`或`html.parser`(如果你用BeautifulSoup的话)来解析HTML。 2. **发送请求**: 使用`requests.get()`函数向起点中文网的排行榜URL发送GET请求,获取网页源代码。 ```python import requests url = "https://www.qidian.com/rank" response = requests.get(url) ``` 3. **解析HTML**: 解析响应内容,找到包含排行榜数据的部分。这通常涉及到选择器技术,如BeautifulSoup的`.select()`方法,或正则表达式。 ```python from bs4 import BeautifulSoup soup = BeautifulSoup(response.text, 'lxml') ranking_list = soup.select('.book-rank .title') # 假设排名在这些元素中 ``` 4. **提取数据**: 对每个找到的排行榜条目,提取出所需的信息,如书名、作者、评分等。 5. **保存数据**: 将爬取的数据存储到文件、数据库或结构化的数据类型(如pandas DataFrame)中。 ```python data = [] for item in ranking_list: title = item.text.strip() # 提取标题 ... # 提取其他信息 data.append({ 'title': title, 'author': ..., # 提取作者 'rating': ... # 提取评分 }) ``` 6. **处理可能的问题**: 考虑到网站可能会有反爬机制(如验证码、限制请求频率等),你可能需要添加适当的延迟(使用`time.sleep()`)并处理异常。 7. **合法性与道德**: 在进行网络爬虫时,务必遵守网站的使用条款和robots.txt协议,尊重版权,不要频繁对服务器造成压力。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值