crawlab python脚本关联mongodb结果集,实例

本文介绍了如何通过Python脚本将Crawlab爬虫的数据与MongoDB的结果集关联,详细步骤包括:理解官方指南、编写加入task_id的脚本、在Crawlab中配置指定结果集,最后展示运行后的MongoDB数据。
摘要由CSDN通过智能技术生成

1.官方大佬指出, 可能还是不太懂,接着看

2. 脚本源码, db_weather  集合与crawlab爬虫结果集保持一致,数据列加入task_id

# -*- coding:utf-8 -*-

import requests
import time
import os
from pymongo import MongoClient

requests.packages.urllib3.disable_warnings()


class wth:
    def __init__(self):
        #这里的result, 可以是你自己的业务数据
        # 必须把task_id 写入每一行数据中
        task_id = os.environ["CRAWLAB_TASK_ID"]
        result = [
            {"task_id":task_id,
             "cityname":cityname,
             "week":week,
             "noww":noww,
             "dayw":dayw,
             "shidu":shidu,
             "kongq":kongq}]
        print("result=", result)
        # 插入数据库
        self.InsertWeather(resu
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值