Python获取信息并保存MongoDB实例

前言
Python连接数据库是十分必要的操作,我这次用的是MongoDB数据库保存数据。这类的文章一般都不容易审核,所以就不多说废话,直接开搞,完整源码放在最后,有需要自取。

效果展示:
在这里插入图片描述
导入所需要的相关库

import requests
import pymongo

连接数据库并建库和集合 名称自取

#指定本地地址和数据库连接端口号,环回口地址就可以。
client = pymongo.MongoClient(host='127.0.0.1',port=27017)
#创建数据库
db = client.shucai
#创建集合
collection = db.shucai

定义函数,为这个集合传数据,一个一个的传

#定义函数,为这个集合传数据,一个一个的传
def  save_mongo(dic):
    collection.insert_one(dic)

定义函数main,用来获取信息以及传参的操作。

def main():

以下都是函数命令
表单数据

#表单数据
    data = {
        'limit':'',
        'current':'',
        'pubDateStartTime':'',
        'pubDateEndTime':'',
        'prodPcatid':'',
        'prodCatid':'',
        'prodName':'',
    }

伪装头部

#伪装头部
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/.058.102 Safari/537.36'
    }

信息来源URL

#信息来源URL
    url = 'http://www.xinfadi.com.cn/getPriceData.html'

外层定义一个range(取前不取后)用来规定获取的页数

    #外层定义一个range(取前不取后)用来规定获取的页数
    for i in range(1,11,):
        #为表单传入数据,用来达到翻页的效果
        data = {'current':f'{i}'}
        #POST请求
        respomse = requests.post(url=url, data=data, headers=headers)
        #json格式数据
        d = respomse.json()
        li_list = d['list']
        print(li_list)

对响应进行字典进行遍历,利用键精确获取相应的值

        for li in li_list:
            prodCat = li['prodCat']
            prodPcat = li['prodPcat']
            prodName = li['prodName']
            lowPrice = li['lowPrice']
            avgPrice = li['avgPrice']
            highPrice = li['highPrice']
            place = li['place']
            specInfo = li['specInfo']
            unitInfo = li['unitInfo']
            pubDate = li['pubDate']
            print(prodCat,prodPcat,prodName,lowPrice,avgPrice,highPrice,place,specInfo,unitInfo,pubDate)

为获取到的信息取别称

 #为获取到的信息取别称
            dic = {
                '一级分类':prodCat,
                '二级分类':prodPcat,
                '菜名':prodName,
                '最低价':lowPrice,
                '平均价':avgPrice,
                '最高价':highPrice,
                '产地':place,
                '规格':specInfo,
                '单位':unitInfo,
                '日期':pubDate,
            }

将参数传入到MongoDB数据库集合内

  #将参数传入到MongoDB数据库集合内
            save_mongo(dic)

运行主函数

#运行主函数
main()

完整代码:

#导入数据库
import requests
import pymongo
#连接数据库
client = pymongo.MongoClient(host='127.0.0.1',port=27017)
#创建数据库库
db = client.shucai
#创建集合
collection = db.shucai
#定义函数,为这个集合传数据,一个一个的传
def  save_mongo(dic):
    collection.insert_one(dic)
#定义函数,用来获取信息以及传参的操作。
def main():
    #表单数据
    data = {
        'limit':'',
        'current':'',
        'pubDateStartTime':'',
        'pubDateEndTime':'',
        'prodPcatid':'',
        'prodCatid':'',
        'prodName':'',
    }
    #伪装头部
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/9
    }
    #信息来源URL
    url = 'http://www.xinfadi.com.cn/getPriceData.html'
    #外层定义一个range(取前不取后)用来规定获取的页数
    for i in range(1,11,):
        #为表单传入数据,用来达到翻页的效果
        data = {'current':f'{i}'}
        #POST请求
        respomse = requests.post(url=url, data=data, headers=headers)
        #json格式数据
        d = respomse.json()
        li_list = d['list']
        print(li_list)
        #对响应进行字典进行遍历,利用键精确获取相应的值
        for li in li_list:
            prodCat = li['prodCat']
            prodPcat = li['prodPcat']
            prodName = li['prodName']
            lowPrice = li['lowPrice']
            avgPrice = li['avgPrice']
            highPrice = li['highPrice']
            place = li['place']
            specInfo = li['specInfo']
            unitInfo = li['unitInfo']
            pubDate = li['pubDate']
            print(prodCat,prodPcat,prodName,lowPrice,avgPrice,highPrice,place,specInfo,unitInfo,pubDate)
            #为获取到的信息取别称
            dic = {
                '一级分类':prodCat,
                '二级分类':prodPcat,
                '菜名':prodName,
                '最低价':lowPrice,
                '平均价':avgPrice,
                '最高价':highPrice,
                '产地':place,
                '规格':specInfo,
                '单位':unitInfo,
                '日期':pubDate,
            }
            #将参数传入到MongoDB数据库集合内
            save_mongo(dic)
#运行主函数
main()
  • 6
    点赞
  • 28
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
爬虫是一种自动化程序,用于从互联网中获取数据。而MongoDB是一个非关系型数据库,具有高性能、可伸缩性和灵活的数据模型。在实践中,将两者结合使用可以高效地存储和检索爬虫获取的数据。 首先,我们需要在Python环境中安装pymongo库,它可以用于与MongoDB进行交互。然后,我们可以使用requests库发送HTTP请求并解析响应的HTML内容。通过解析HTML,我们可以提取有价值的数据,并将其存储到MongoDB中。 在代码中,我们需要先创建一个MongoDB连接。我们可以指定主机名、端口号和认证信息。接着,我们可以选择要使用的数据库和集合。在这些设置完成后,我们可以使用pymongo的方法添加新文档或更新已存在的文档。 例如,假设我们想要爬取某个电商网站的商品信息。我们可以发送HTTP请求以获取网页内容,并使用lxml或BeautifulSoup等库解析HTML。然后,我们可以遍历解析后的内容,提取出商品的名称、价格、评分等信息,并将它们存储到MongoDB的集合中。 使用MongoDB的好处之一是数据的结构可以非常灵活。我们可以根据需要随时添加或修改字段。此外,MongoDB查询功能也很强大,可以轻松地根据条件检索和过滤数据。 综上所述,爬虫MongoDB的结合可以帮助我们高效地存储、管理和检索爬取的数据。这种组合在很多实际应用中都被广泛使用,如舆情分析、数据挖掘和机器学习。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

秦同学学学

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值