爬取图书,将图书的信息保存到csv文件中

该博客讲述了如何从http://www.allitebooks.org/网站抓取图书数据,并利用BeautifulSoup、正则表达式和XPath进行数据解析,最终将信息保存到CSV文件中。
摘要由CSDN通过智能技术生成

爬取http://www.allitebooks.org/这个网页的图书,将图书的信息保存到csv文件中,解析数据时分别使用BeautifulSoup,正则表达式和Xpath解析,共两份代码

import requests
from bs4 import BeautifulSoup
import json
import csv
import re
items = []
class BookCrawl(object):
    def __init__(self):
        self.base_url =  'http://www.allitebooks.org/page/{}/'
        self.headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36',
           }
    #1.构建所有的url,
    def get_url_list(self):
        url_list = []
        for i in range(1,3):#想爬取页面范围
            url = self.base_url.format(i)
            url_list.append(url)
        return url_list
    # 2发送请求
    def send_request(self,url):
        #获取网页的源代码,可以通过浏览器访问,也可以直接调用requests库
        # browser.get(url)
        # time.sleep(5)
        # data = browser.page_source
        data = requests.get(url,headers =self.headers).content.decode()
        return data
    #3 解析数据 分别用xpath 和bs4
    def parse_xpath_data(self,data):
        parse_data = BeautifulSoup(data,'lxml')
        #1. 解析出所有的书 book
        book_list  = parse_data.find_all('article')
        for book in book_list:
            book = str(book)
            # print(book)
            pa
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值