python数据拼接_爬虫用python拼接json数据

python爬虫新手,想抓这个网站的内容,请求各位大神帮忙:

http://app.100xuexi.com/TK/Qu...

返回的json数据结构类似于:

{

result: 1,

data: {

name: "2018",

nodeList: [

{

name: "单选题",

questionLists: [

{

questionId: "9d00dd42-bb88-45d4-af3b-7015fb091d2f",

QuestionScore: "1.50",

},

{

questionId: "72a8285e-57b7-4c17-811e-dc786e4e8114",

QuestionScore: "1.50",

},

]

},

{

name: "多选题",

questionLists: [

{

questionId: "f0bd5a5d-e486-4148-9f4c-a753ce2f901d",

QuestionScore: "1.50",

},

{

questionId: "c0860e17-8004-45b4-bd65-40b4110ae4a8",

QuestionScore: "1.50",

},

}

]

}

得到结果中的questionId:"9d00dd42-bb88-45d4-af3b-7015fb091d2f"之后,可以组合成一个链接:http://app.100xuexi.com/TK/TK...

访问这个链接之后得到第二个具体题目的json数据。

问题1:这个网站后台为什么不把这两个数据放在一个mongodb文档里,要分开呢?有什么好处吗?

问题2:现在我想把这部分数据拼接到第一个json文件内,和questionId这个键值对并列,该用什么方法?

我已经写了一部分代码,里面有很多不懂的地方都标注了,请各位大神帮忙。

import requests

import json

import pymongo

# from myLog import MyLog as mylog

# log = mylog()

# 总体逻辑:访问paperID后得不到题目的具体内容,

# 只能得到questionID,然后利用questionID组成url才能得到具体的题目信息,

# 所以考虑拿到题目具体信息后再传给paperID,再存入数据库。

def paperID_spider():

# 获取paperID内容

paperID_url = 'http://app.100xuexi.com/TK/QuePlanPractice.ashx?method=GetPaperAnswerSheetNew_v2&paperID=a823eddf-d157-4566-be06-b32fe4ee59ac'

user_agent = 'SCeBook/5.4.3 (iPhone; iOS 12.1.4; Scale/2.00)'

headers = {'User-Agent': user_agent}

try:

paperID_res = requests.get(paperID_url, headers=headers, timeout=5)

except:

# TODO:对于访问失败的情况怎么办?,重试?还是把失败链接保存到日志里,后面再重新访问存储?

# log.info('paperID_url出错:%s' %paperID_url)

pass

paperID_json = paperID_res.json()

paperID_result_code = paperID_json['result']

if paperID_result_code == 1:

# TODO: 返回成功的这个状态码用不用保存,还是只保存有用的data数据

try:

# TODO:先保存这部分paperID内容存到mongo再爬取下面的questionID?还是把questionID内容和paparID拼接后再保存?

save_mongo_paperID_json(paperID_json)

except:

# TODO:保存出错该怎么办?

# log.info('paperID_json保存出错:%s' %paperID_url)

pass

# TODO:这里直接传paperID_json,是不是比较占内存?提前for循环传paperID_json['data']['nodeList']会不会占用内存小点

questionID_spider(paperID_json)

else:

# log.info('访问出错:%s' %paperID_url)

print(paperID_json['result'])

# TODO:返回状态码不对该怎么操作?

pass

def questionID_spider(paperID_json):

# 保存questionID数据到paperID.data.nodeLists.0里面和questionId并列

nodeLists = paperID_json['data']['nodeList']

for nodeList in nodeLists:

questionLists = nodeList['questionLists']

for questionList in questionLists:

questionID = questionList['questionId']

print(questionID)

questionID_url = 'http://app.100xuexi.com/TK/TKQuestionsHandle.ashx?id=%s&method=Questions' %questionID

print(questionID_url)

# TODO:用不用再写一次请求头?

user_agent = 'SCeBook/5.4.3 (iPhone; iOS 12.1.4; Scale/2.00)'

headers = {'User-Agent': user_agent}

questionID_res = requests.get(questionID_url, headers=headers)

questionID_json = questionID_res.json()

questionID_result_code = questionID_json['status']

# TODO:如何保存questionID数据到paperID.data.nodeLists.0里面和questionId并列?

# TODO:1.直接拼接到paperID数据里

# TODO:2.保存到mongoDB里

print(questionID_json['data']['QuestionContent'])

def save_mongo_paperID_json(paperID_json):

client = pymongo.MongoClient()

db = client['tiku']

collection = db['tiku']

# TODO:这里如何插入paperID_json数据,进行两部分json数据的组合

tiku = collection.insert(paperID_json)

if __name__ == '__main__':

eBook = paperID_spider()

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
系统根据B/S,即所谓的电脑浏览器/网络服务器方式,运用Java技术性,挑选MySQL作为后台系统。系统主要包含对客服聊天管理、字典表管理、公告信息管理、金融工具管理、金融工具收藏管理、金融工具银行卡管理、借款管理、理财产品管理、理财产品收藏管理、理财产品银行卡管理、理财银行卡信息管理、银行卡管理、存款管理、银行卡记录管理、取款管理、转账管理、用户管理、员工管理等功能模块。 文中重点介绍了银行管理的专业技术发展背景和发展状况,随后遵照软件传统式研发流程,最先挑选适用思维和语言软件开发平台,依据需求分析报告模块和设计数据库结构,再根据系统功能模块的设计制作系统功能模块图、流程表和E-R图。随后设计架构以及编写代码,并实现系统能模块。最终基本完成系统检测和功能测试。结果显示,该系统能够实现所需要的作用,工作状态没有明显缺陷。 系统登录功能是程序必不可少的功能,在登录页面必填的数据有两项,一项就是账号,另一项数据就是密码,当管理员正确填写并提交这二者数据之后,管理员就可以进入系统后台功能操作区。进入银行卡列表,管理员可以进行查看列表、模糊搜索以及相关维护等操作。用户进入系统可以查看公告和模糊搜索公告信息、也可以进行公告维护操作。理财产品管理页面,管理员可以进行查看列表、模糊搜索以及相关维护等操作。产品类型管理页面,此页面提供给管理员的功能有:新增产品类型,修改产品类型,删除产品类型。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值