python爬虫小案例_从豆瓣爬取多页的图书信息保存到数据库(MongoDB)

一、在豆瓣网爬取以下图书的信息:

二、参考代码:

1、连接 MongoDB 数据库,并且创建数据库和表

import pymongo
myclient = pymongo.MongoClient("mongodb://127.0.0.1:27017/")

db = myclient['webCrawler'] # 创建数据库 webCrawler

datatable = db['Book_info'] # 创建 Book_info 表

2、爬取数据并且 存储到数据库

import re 
import pandas as pd
import requests
from bs4 import BeautifulSoup


dataSet = [] # 用来存储 爬取下来的书籍信息

# 爬取 前五页 的数据
for i in range(5):
       
    u = 'https://book.douban.com/tag/%E4%BA%92%E8%81%94%E7%BD%91?start='+str(i*20)+'&type=T'
    
    txt = requests.get(url = u)
    
    soup = BeautifulSoup(txt.text,'lxml') # 解析网址:使用 BeautifulSoup解析网址内容
    
    lis = soup.find('ul',class_="subject-list").find_all('li') # 查找所有 ul 的class 为"subject-list"下的 所有 li 标签
    
    
    for li in lis:
        book_dict = {} # 用来存储 每本书的信息
        book_dict['书名'] = li.h2.text.replace(' ','').replace('\n','')
        book_dict['其他信息'] = li.find('div',class_="pub").text.replace(' ','').replace('\n','')
        book_dict['评分'] = li.find('span',class_='rating_nums').text
        book_dict['评价人数'] = re.search(r'(\d*)人',li.find('span',class_='pl').text.replace(' ','').replace('\n','')).group(1)
        
        datatable.insert_one(book_dict) # 插入 图书信息到数据库中
        
        dataSet.append(book_dict) # 把每本书的信息 添加到列表中       
        

dataSetdf = pd.DataFrame(dataSet) # 将 list 类型的数据转换成 DataFrame 类型

三、可在数据库里查看爬取下来的信息:

  • 2
    点赞
  • 25
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值