Scrapy爬取内容的入库操作(mongodb数据库)

本文介绍了如何在Python环境下,通过Scrapy爬虫框架抓取数据,并利用pymongo库将数据存入MongoDB数据库。首先,确保安装MongoDB及数据库管理工具robo3t,并配置启动脚本。接着,启动MongoDB服务,然后在PyCharm中编写代码实现数据交互。最后,执行Scrapy爬虫,检查数据库中存储的数据。
摘要由CSDN通过智能技术生成
  1. 电脑先预装MongoDB和数据库可视化软件robo3t,python下载pymongo库
    在这里插入图片描述

  2. 预先启动数据库
    可以自己写一个小脚本文件方便启动
    内容:E:\mongodb_64\bin\mongod.exe --dbpath E:\mongodb_64\data\db
    在这里插入图片描述

    出现了等待连接的 27017端口时,说明启动成功
    在这里插入图片描述

  3. 打开可视化软件 robo3t 并连接数据库
    在这里插入图片描述

  4. 打开自己的pycharm编写代码, 实现python与MongoDB交互

from pymongo import MongoClient
class 
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值