Python爬虫智高考数据

介绍

智高考是一个高考志愿网站,也是基于Ajax的。高中的时候我在wyz大神的帮忙下,尝试过爬取信息来为填志愿做准备。但是当时没有系统学习过爬虫,几乎都是靠大神带飞,因此今天再次尝试爬取智高考的大学信息。(数据全部基于智高考,侵删)
该网站有多种查询模式,我打算爬取的有两种。
1.各省份的本科大学
2.各学科的本科大学

正文

各省份的本科大学

首先分析Ajax,可以看到URL为:

http://www.zhigaokao.cn/university/getRemoteUniversityList.do?userKey=www&req=ajax&universityName=&areaid=110000&type=&educationLevel=1&property=&offset=0&rows=10

其中universityName、type、property均可省略,因为我们没有传入数据。然后通过字面翻译可以知道,areaid是地区代码的意思,也就是代表着各个省份(直辖市)。这里可以选择网上搜索所有省份代码,预处理弄好,这也是我曾经的做法。但是今天我打算直接从网站上爬取所有省份代码。
直接刷新界面,可以看到有好几条xhr信息,仔细观察就能发现其中一条就是存着省份代码的信息。
image

接下来事情就简单了,用requests读取信息,然后解析就可以了,代码如下

def get_id():
    url = 'http://www.zhigaokao.cn/university/getRemoteProvinceList.do?'
    payload = {
            'userKey': 'www',
            'req': 'ajax',
        }
    response = requests.get(url, headers=headers, params=payload)
    items = response.json().get('bizData')
    IDs = []
    for item in items:
        IDs.append(item.get('id'))
    return IDs

获取省份代码之后,就可以传入之前的params中,通过offset来爬取所有信息。

各学科的本科大学

这里比较麻烦的如何传递专业。按照智高考的专业分级有三级,因此我打算一二级用文件夹的形式存,三级作为文件的命名。总的思路和上面的类似,就不细细赘述了。我遭遇到的主要问题就是json结构层次太多,经常会搞晕,然后我没有一开始定下怎么按层次解析,因此踩了不少坑。说到底应该算是基础不扎实、代码量太少的原因吧。
image

还有要提及的一点是,我本打算先爬取所有专业大类存在list里,然后发现这样和最后的学校不容易匹配上,发现最终的json中其实也有专业大类的名称,因此又重新修改了代码,改为直接解析学校的URL。

####完整代码:

import requests
import time
import os
import csv
from pyquery import PyQuery as pq
'''
遇到不懂的问题?Python学习交流群:821460695满足你的需求,资料都已经上传群文件,可以自行下载!
'''
number = 100
headers = {
        'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36',
        'Accept-Encoding': 'gzip, deflate, sdch',
        'Accept-Language': 'zh-CN,z;q=0.8'
    }
	
def get_majors(ID):
	url = 'http://www.zhigaokao.cn/majored/getCategoryMajoredList.do?'
	payload = {
			'userKey': 'www',
			'req': 'ajax',
			'categoryId': ID
		}
	response = requests.get(url, headers=headers, params=payload)
	items = response.json().get('bizData')
	return(items)

def bulid(items):
	path = '.\\majors\\' + items.get('name') + '\\'
	item = items.get('childList')
	for its in item:
		pa = path + its.get('name')
		isExists=os.path.exists(pa)
		if not isExists:
			os.makedirs(pa)
		it = its.get('childList')
		for i in it:
			p = pa + '\\' + i.get('name') + '.csv'
			with open(p, 'w') as csvfile:
				writer = csv.writer(csvfile, lineterminator='\n')
				results = get_data(i.get('id'))
				for result in results:
					writer.writerow([result.get('name'), result.get('province'), result.get('property')])
				print(p + 'finish!')
				

def get_data(ID):
	url = 'http://www.zhigaokao.cn/majored/getMajorOpenUniversityList.do?'
	payload = {
			'userKey': 'www',
			'req': 'ajax',
			'majoredId': ID,
			'majorType': 1,
			'offset': 0,
			'row': 10
		}
	results = []
	length = 10
	while (payload['offset'] < number) and (length == 10):
		response = requests.get(url, headers=headers, params=payload)
		items = response.json().get('bizData').get('universityList')
		length = len(items)
		for item in items:
			results.append(item)
		payload['offset'] = payload['offset'] + length
		time.sleep(1)
		print(ID, payload['offset'])
	return(results)

def main():
	for i in range(13):
		if i == 10: 
			contiune
		bulid(get_majors(i+1))

if __name__ == '__main__' :
	main()
  • 1
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值