python实现爬虫查看冠状病毒肺炎疫情

介绍

本文是使用python语言实现的简单爬虫,用于爬取官方网站给出的具体数据,以便得知具体的肺炎疫情状况。

数据来源

本次我们使用的数据来源是 丁香医生的疫情通报网站
在这里插入图片描述
我们将通过下面这些代码得到我们想要的疫情数据。同时我们使用pyecharts库,为河南省内所有数据绘制了一份疫情地图。
值得注意的是:这个网站其中的一部分内容是使用js异步加载出的,因此我们并不能直接找到上面图片中那些数据的直接xpath,因为很容易发现,从直接xpath加载出的数据为空。
若要直接从xpath中拿到数据,需要使用python的webdriver库模拟人打开浏览器进行交互,从而得到我们想要的数据。
在这里我们使用的不是上面的方法,而是在原始网页中找到了存储这些数据的位置。

代码

import requests
from lxml import html
import re
import json
import time
from pyecharts import options as opts
from pyecharts.charts import Map
from pyecharts.globals import ChartType, SymbolType


def geo_henan(city_list, num_list) -> Map():
    c = (
        Map()
            .add(
            "图例",
            [list(z) for z in zip(city_list, num_list)],
            "河南"
        )
            .set_series_opts(label_opts=opts.LabelOpts(is_show=False))
            .set_global_opts(
            title_opts=opts.TitleOpts(title="河南疫情地图"),
            visualmap_opts=opts.VisualMapOpts(max_=200, is_piecewise=False)
        )
    )
    return c


url = 'https://ncov.dxy.cn/ncovh5/view/pneumonia'
res = requests.get(url)
res.encoding = 'utf-8'

# f = open('../疫情.html', 'w+', encoding='utf-8')
# f.write(res.text)

pattern = re.compile(r'"confirmedCount":.+"virus"')
pattern_Henan = re.compile(r'"河南".+?"comment"')
pattern_Henan_Inner = re.compile(r'{"cityName":"信阳.+?待明确地区')

tree = html.fromstring(res.text)
pos = '//*[@id="getStatisticsService"]/text()'
data = str(tree.xpath(pos))
data = re.findall(pattern, data)
data = data[0][:-8]
data = '{' + str(data) + '}'
data = json.loads(data)

print(time.strftime('{a}%Y{y}%m{m}%d{d} %H:%M').format(a='现在是', y='年', m='月', d='日'))
print(f"确诊人数:{data['confirmedCount']}")
print(f"疑似人数:{data['suspectedCount']}")
print(f"死亡人数:{data['deadCount']}")
print(f"重症人数:{data['seriousCount']}")
print(f"治愈人数:{data['curedCount']}")

pos = '//*[@id="getListByCountryTypeService1"]/text()'
data = str(tree.xpath(pos))
data = re.findall(pattern_Henan, data)
data = data[0]
data = '{' + data[19:-10] + '}'
data = json.loads(data)

print('-' * 40)
print(f"河南省确诊人数:{data['confirmedCount']}")
print(f"河南省死亡人数:{data['deadCount']}")
print(f"河南省治愈人数:{data['curedCount']}")

pos = '//*[@id="getAreaStat"]/text()'
data = str(tree.xpath(pos))
data = re.findall(pattern_Henan_Inner, data)
data = data[0]
data = data[:-20]
data_list = data.split('},')

city_list = []
num_list = []
for i in range(len(data_list)):
    data_list[i] = data_list[i][1:]
    data_list[i] = '{' + data_list[i] + '}'
    data_list[i] = json.loads(data_list[i])
    data_list[i]['cityName'] = data_list[i]['cityName'] + '市'
    city_list.append(data_list[i]['cityName'])
    num_list.append(data_list[i]['confirmedCount'])

geo_henan(city_list, num_list).render('../河南疫情地图.html')

代码效果

在这里插入图片描述
在这里插入图片描述

  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
本文将介绍如何使用Python爬虫对新型冠状病毒相关数据进行整理和可视化分析。主要包括以下步骤: 1. 获取疫情数据 2. 整理数据 3. 可视化数据 ## 1. 获取疫情数据 我们可以从丁香园、百度、腾讯等网站获取新型冠状病毒疫情数据。这里以丁香园为例,使用requests库进行网页爬取,代码如下: ```python import requests url = 'https://ncov.dxy.cn/ncovh5/view/pneumonia' r = requests.get(url) r.encoding = 'utf-8' print(r.text) ``` 这里获取到的是网页的HTML代码,需要使用BeautifulSoup库进行解析。代码如下: ```python from bs4 import BeautifulSoup soup = BeautifulSoup(r.text, 'html.parser') script = soup.find('script', attrs={'id': 'getListByCountryTypeService2true'}) text = script.string print(text) ``` 这里我们找到了HTML中id为`getListByCountryTypeService2true`的script标签,通过`script.string`获取到其中的字符串。这个字符串就是包含疫情数据的JSON格式数据。我们可以使用json库将其转换为Python字典格式。代码如下: ```python import json data_str = text.replace('try{window.getListByCountryTypeService2true = ','')[:-1] data_dict = json.loads(data_str) print(data_dict) ``` 这里先将字符串中的`try{window.getListByCountryTypeService2true = `和最后的分号去掉,然后使用json.loads()将其转换为Python字典格式。这个字典中包含了全国和各省市的疫情数据。 ## 2. 整理数据 我们可以将获取到的字典数据整理成DataFrame格式,方便后续的分析和可视化。代码如下: ```python import pandas as pd df = pd.DataFrame(data_dict['getAreaStat']) df = df[['provinceName', 'confirmed', 'suspected', 'cured', 'dead']] df['confirmed'] = df['confirmed'].astype(int) df['suspected'] = df['suspected'].astype(int) df['cured'] = df['cured'].astype(int) df['dead'] = df['dead'].astype(int) print(df.head()) ``` 这里我们只保留了省份、确诊人数、疑似病例、治愈人数和死亡人数,然后将这些数据转换为整数类型。 ## 3. 可视化数据 接下来我们可以使用matplotlib和seaborn库对数据进行可视化分析。这里我们分别绘制各省份的确诊人数和治愈人数的柱状图。代码如下: ```python import matplotlib.pyplot as plt import seaborn as sns plt.figure(figsize=(16, 8)) sns.barplot(x='provinceName', y='confirmed', data=df) plt.xticks(rotation=90) plt.title('Confirmed Cases in China') plt.show() plt.figure(figsize=(16, 8)) sns.barplot(x='provinceName', y='cured', data=df) plt.xticks(rotation=90) plt.title('Cured Cases in China') plt.show() ``` 这里使用了sns.barplot()函数绘制柱状图,并使用plt.xticks(rotation=90)将x轴标签旋转90度,避免重叠。结果如下图所示。 ![Confirmed Cases in China](https://i.loli.net/2021/07/14/og7VnJS32i5xHwz.png) ![Cured Cases in China](https://i.loli.net/2021/07/14/U8Kx4Hj7GwVIvag.png) 可以看到,湖北省的确诊人数和治愈人数都远高于其他省份,这是因为新型冠状病毒最初在湖北省爆发。此外,各省份的确诊人数和治愈人数都有所上升,但是随着时间的推移,治愈人数逐渐增加,确诊人数逐渐减少,这是一个积极的信号。 至此,我们使用Python爬虫对新型冠状病毒疫情数据进行了整理和可视化分析。通过这些分析,我们可以更好地了解疫情的发展趋势和各省份的疫情状况,这对疫情的防控和治疗具有重要意义。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值