爬取研招网招考信息

电子信息类考研科目

为了了解全国研究生院校电子系信息类专硕考察科目,特地开发一份爬虫程序将研招网的相关考试信息爬取下来,方便自己日后使用,也方便大家分析相关高校

1.理清代码逻辑

找到全国所有省份的代号>>>找该省份所有的大学>>>找大学中所有电子信息相关专业>>>提取考察科目信息
(1)通过网页接受的数据包分析各省份的对应的代码如下图,为了避免麻烦,我最终还是选择了手刃咱们全国的省份~~,大家也可以直接对下图获取的的json包做处理
在这里插入图片描述(2)以搜索广东省的电子信息专业为例(如下图),数据并没有通过json包发送,而是院校的相对链接嵌在html代码中,于是得使用beatifulsoup去制作一锅汤~~,去寻找其中的珍品
在这里插入图片描述(3)选取一所高校一探究竟,这个上一步如此的相似,数据也没有单独发包,都是嵌入在html页面中,这还是得再去制作一锅汤,不过这回得检查“查看”元素的源代码
在这里插入图片描述(4)以院校的专业为例,进入页面查看相关考察科目,任然没有发现我需要的json包~~(大哥能不能体谅我们这种没怎么学html的同学),既然这样,那么咱们继续做汤呗
在这里插入图片描述(5)接下来就是咱们安装以及使用MongoDB数据库了(这是一个我没有玩过的全新版本~~),为了操作,我也下载了他的可视化软件
在这里插入图片描述

2.请求并提取所需数据

(1)爬取该省所有高校相对链接请求(如下图);对于爬虫程序,为了解决一些未知的错误,我选择try-except,这样不至于使程序因为一个小错误全程崩掉
在这里插入图片描述提取院校的相对链接;需要提取列表中所有的a标签的href属性
在这里插入图片描述(2)拼接成院校完整链接,请求数据
在这里插入图片描述提取院校专业的相对链接;
在这里插入图片描述(3)拼接链接,请求个专业考察科目
在这里插入图片描述
提取考察科目;

        for tr in html_text.find_all('tbody',class_="zsml-res-items"):
            #tr=tr.children
            if isinstance(tr,bs4.element.Tag):
                tds=tr('td')
                print("类型",type(tds[0]))
                tds[0]=str(tds[0]).replace("\r\n","")
                print("s类型",type(tds[0]))
                tds[0]=tds[0].replace(" ","")
                tds[1]=str(tds[1]).replace("\r\n","")
                tds[1]=tds[1].replace(" ", "")
                tds[2] = str(tds[2]).replace("\r\n","")
                tds[2] = tds[2].replace(" ","")
                tds[3] = str(tds[3]).replace("\r\n","")
                tds[3] = tds[3].replace(" ", "")
                con1 = Selector(text=tds[0])
                con2 = Selector(text=tds[1])
                con3 = Selector(text=tds[2])
                con4 = Selector(text=tds[3])
                #print(con1)
                test_subject_data.append([con1.xpath("//td/text()").extract(),con2.xpath("//td/text()").extract(),con3.xpath("//td/text()").extract(),con4.xpath("//td/text()").extract()])
                mydict={"univers":link_test_order[i][0],"course1":test_subject_data[i][0],"course2":test_subject_data[i][1],"course3":test_subject_data[i][2],"course4":test_subject_data[i][3]}
                x = mycol.insert_one(mydict)
                #print("test",test_subject_data)
        print("正在爬取%s考试科目"%(link_test_order[i][0]))

3.MongoDB数据库存储数据

(1)连接本地数据数据库,并创建数据表
在这里插入图片描述(2)向表中插入数据

mydict={"univers":link_test_order[i][0],"course1":test_subject_data[i][0],"course2":test_subject_data[i][1],"course3":test_subject_data[i][2],"course4":test_subject_data[i][3]}
                x = mycol.insert_one(mydict)

(3)爬取数据存储如下
在这里插入图片描述

4.使用server酱微信消息提醒

注册之后都会有key,原谅我打了马赛克,server酱注册地址
在这里插入图片描述

5.代码分享

import requests
import bs4
from bs4 import BeautifulSoup
from scrapy import Selector
import pymongo
import time
#连接数据库
myclient=pymongo.MongoClient("mongodb://localhost:27017/")
mydb=myclient["China"]
mycol=mydb["university"]
dblist=myclient.list_database_names()
code_university=[[11,"北京市"],
                 [12,"天津市"],
                 [13,"河北省"],
                 [14,"山西省"],
                 [15,"内蒙古自治区"],
                 [21,"辽宁省"],
                 [22,"吉林省"],
                 [23,"黑龙江省"],
                 [31,"上海市"],
                 [32,"江苏省"],
                 [33,"浙江省"],
                 [34,"安徽省"],
                 [35,"福建省"],
                 [36,"江西省"],
                 [37,"山东省"],
                 [41,"河南省"],
                 [42,"湖北省"],
                 [43,"湖南省"],
                 [44,"广东省"],
                 [45,"广西壮族自治区"],
                 [46,"海南省"],
                 [50,"重庆市"],
                 [51,"四川省"],
                 [52,"贵州省"],
                 [53,"云南省"],
                 [54,"西藏自治区"],
                 [61,"陕西省"],
                 [62,"甘肃省"],
                 [63,"青海省"],
                 [64,"宁夏回族自治区"],
                 [65,"新疆维吾尔族自治区"]
                 ]
chrome_info={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:71.0) Gecko/20100101 Firefox/71.0'}
#配置表单信息
form_data={'ssdm':'','dwmc':'','mldm':'zyxw','mlmc':'','yjxkdm':'0854','zymc':'电子信息','xxfs':''}
base_url='https://yz.chsi.com.cn'
#爬取该省所有研究生院校的数据
def get_Us_data(form_data1,i):
    try:
        #post
        html_data=requests.post('https://yz.chsi.com.cn/zsml/queryAction.do',headers=chrome_info,data=form_data1)
        print("正在爬取%s所有研究生院校链接"%code_university[i][1])
    except:
        print("请求高校数据出错")
    #提取该省所有高校链接地址
    count=0
    link=[]
    soup=BeautifulSoup(html_data.text,'html.parser')
    for tr in soup.find('tbody').children:
        if isinstance(tr,bs4.element.Tag):#判断是否为tr标签
            tds=tr('td')
            a=tds[0].form.a#定位到form标签下的a链接标签
            #print(a.text)
            link.append([a.get('href'),a.text])#该省院校的相对链接
            count+=1
    print(count)
    return link
def get_thisUniversity_data(link):
    # post表单信息
    data=[]#存储爬取的数据
    j=0
    link_test_order=[]
    #print("分割大学名称、序号中")
    for i in range(len(link)):
        try:
            lin=link[i][1].split(')')
            form_data1={'ssdm':form_data['ssdm'],'dwmc':lin[1],'mldm':form_data['mldm'],'mlmc':form_data['mlmc'],'yjxkdm':form_data['yjxkdm'],'xxfs':form_data['xxfs'],'zymc':form_data['zymc']}
            Url=base_url+link[i][0]
            html=requests.post(Url,headers=chrome_info,data=form_data1)
            html=BeautifulSoup(html.text,'html.parser')
            for tr in html.find('tbody').children:
                if isinstance(tr,bs4.element.Tag):
                    tds=tr('td')
                    data.append(['考试方式',tds[0].text])
                    data.append(['院系', tds[1].text])
                    data.append(['专业', tds[2].text])
                    data.append(['研究方向',tds[3].text])
                    data.append(['学习方式', tds[4].text])
                    link_test_order.append([lin[1]+tds[1].text+tds[2].text,tds[7].a.get('href')])
            j+=1
            print("爬取%d所院校成功"%i)
        except:
            print("爬取%s数据失败",link[i][1])
    print("该省共%d个相关专业"%len(link_test_order))
    return link_test_order
#请求各院校各专业的考试信息数据
def get_test_order(link_test_order):
    test_subject_data=[]
    for i in range(len(link_test_order)):
        Url = base_url + link_test_order[i][1]
        html = requests.get(Url, headers=chrome_info)
        html_text=BeautifulSoup(html.text,'html.parser')
        for tr in html_text.find_all('tbody',class_="zsml-res-items"):
            #tr=tr.children
            if isinstance(tr,bs4.element.Tag):
                tds=tr('td')
                print("类型",type(tds[0]))
                tds[0]=str(tds[0]).replace("\r\n","")
                print("s类型",type(tds[0]))
                tds[0]=tds[0].replace(" ","")
                tds[1]=str(tds[1]).replace("\r\n","")
                tds[1]=tds[1].replace(" ", "")
                tds[2] = str(tds[2]).replace("\r\n","")
                tds[2] = tds[2].replace(" ","")
                tds[3] = str(tds[3]).replace("\r\n","")
                tds[3] = tds[3].replace(" ", "")
                con1 = Selector(text=tds[0])
                con2 = Selector(text=tds[1])
                con3 = Selector(text=tds[2])
                con4 = Selector(text=tds[3])
                #print(con1)
                test_subject_data.append([con1.xpath("//td/text()").extract(),con2.xpath("//td/text()").extract(),con3.xpath("//td/text()").extract(),con4.xpath("//td/text()").extract()])
                mydict={"univers":link_test_order[i][0],"course1":test_subject_data[i][0],"course2":test_subject_data[i][1],"course3":test_subject_data[i][2],"course4":test_subject_data[i][3]}
                x = mycol.insert_one(mydict)
                #print("test",test_subject_data)
        print("正在爬取%s考试科目"%(link_test_order[i][0]))
if __name__=="__main__":
    for i in range(len(code_university)):
        code=code_university[i][0]
        form_data['ssdm']=code
    #请求该省高校相对链接数据数据
        link=get_Us_data(form_data,i)
    #请求高校专业、方向数据
        link_test_order=get_thisUniversity_data(link)
    #爬取各专业具体考试科目
        get_test_order(link_test_order)
        time.sleep(5)
    url = "https://sc.ftqq.com/你们自己的key.send?text=爬取大学结束~"
    re = requests.get(url)
    #数据存储
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值