100大学开设python_Python爬虫入门教程 38-100 教育部高校名单数据爬虫 scrapy

爬前叨叨

今天要爬取一下正规大学名单,这些名单是教育部公布具有招生资格的高校名单,除了这些学校以外,其他招生的单位,其所招学生的学籍、发放的毕业证书国家均不予承认,也就是俗称的野鸡大学!

网址是 https://daxue.eol.cn/mingdan.shtml 爬取完毕之后,我们进行一些基本的数据分析,套路如此类似,哈哈

这个小项目采用的是scrapy,关键代码

import scrapy

from scrapy import Request,Selector

class SchoolSpider(scrapy.Spider):

name = 'School'

allowed_domains = ['daxue.eol.cn']

start_urls = ['https://daxue.eol.cn/mingdan.shtml']

def parse(self, response):

select = Selector(response)

links = select.css(".province>a")

for item in links:

name = item.css("::text").extract_first()

link = item.css("::attr(href)").extract_first()

if name in ["河南","山东"]:

yield Request(link,callback=self.parse_he_shan,meta={"name" : name})

else:

yield Request(link,callback=self.parse_school,meta={"name" : name})

注意到几个问题,第一个所有的页面都可以通过第一步抓取到

但是里面出现了两个特殊页面,也就是山东和河南

北京等学校

河南等学校

对于两种不同的排版,我们采用2个方法处理,细节的地方看代码就可以啦!

尤其是下面对字符串的处理,你要仔细的查阅~

# 专门为河南和山东编写的提取方法

def parse_he_shan(self,response):

name = response.meta["name"]

data = response.css(".table-x tr")

for item in data:

school_name = item.css("td:not(.tmax)::text").extract()

if len(school_name)>0:

for s in school_name:

if len(s.strip())>0:

if len(s.split("."))==1:

last_name = s.split(".")[0]

else:

last_name = s.split(".")[1] # 最终获取到的名字

yield {

"city_name": name,

"school_name": last_name,

"code": "",

"department": "",

"location": "",

"subject": "",

"private": ""

}

# 通用学校提取

def parse_school(self,response):

name = response.meta["name"]

schools = response.css(".table-x tr")[2:]

for item in schools:

school_name = item.css("td:nth-child(2)::text").extract_first()

code = item.css("td:nth-child(3)::text").extract_first()

department = item.css("td:nth-child(4)::text").extract_first()

location = item.css("td:nth-child(5)::text").extract_first()

subject = item.css("td:nth-child(6)::text").extract_first()

private = item.css("td:nth-child(7)::text").extract_first()

yield {

"city_name":name,

"school_name":school_name,

"code":code,

"department":department,

"location":location,

"subject":subject,

"private":private

}

运行代码,跑起来,一会数据到手。O(∩_∩)O哈哈~

查看专科学校和本科学校数量差别

因为河南和山东数据的缺失,需要踢出这两个省份

import pymongo

import numpy as np

import pandas as pd

from pandas import Series,DataFrame

import matplotlib.pyplot as plt

client = pymongo.MongoClient("localhost",27017)

schools = client["school"]

collection = schools["schools"]

df = DataFrame(list(collection.find()))

df = df[df["code"]!=""]

# 汇总本科和专业

df.groupby(["subject"]).size()

结果显示,数量基本平衡

subject

专科 1240

本科 1121

dtype: int64

查看各省排名

rank = df.groupby(by="city_name").size()

rank = rank.sort_values(ascending=False)

# 设置中文字体和负号正常显示

plt.rcParams['font.sans-serif'] = ['SimHei']

plt.rcParams['axes.unicode_minus'] = False

plt.figure(figsize=(12,8),dpi=80)

plt.subplot(1,1,1)

x = np.arange(len(rank.index))

y = rank.values

rect = plt.bar(left=x,height=y,width=0.618,label="学校数目",align="center",color="#03a9f4",edgecolor="#03a9f4",)

plt.xticks(x,rank.index,rotation=45,fontsize=9)

plt.yticks(np.arange(0,180,10))

plt.xlabel("城市")

plt.ylabel("大学数量")

plt.legend(loc = "upper right")

## 编辑文本

for r in rect:

height = r.get_height() # 获取高度

plt.text(r.get_x()+r.get_width()/2,height+1,str(height),size=6,ha="center",va="bottom")

plt.show()

好好研究这部分代码,咱已经开始慢慢的在爬虫中添加数据分析的内容了,我会尽量把一些常见的参数写的清晰一些

江苏和广东大学真多~

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值