(保姆级)Spark气象监测数据分析-步骤4.1数据可视化

本文详细介绍了使用Spark进行气象监测数据分析的过程,包括数据集介绍、所需软件版本、代码原理及实现。通过数据可视化,展示了污染物浓度排名、浓度分布、AQI变化趋势以及不同污染物与环境因素的关系。并针对可能出现的误差进行了分析。
摘要由CSDN通过智能技术生成

目录

总纲

写在前面的话

需要的前瞻知识

用到的软件版本

数据集

代码原理

所有代码

 导包

  主函数代码

1.画污染物浓度排名前20的时段数据可视化结果的代码(只展示了NO2)

2.浓度在浓度限值区间的分布数据可视化

3.每日AQI值数据曲线可视化

4.SO2浓度与NO2浓度变化趋势可视化

运行结果

NO2前20

O3前20

SO2前20

PM2.5前20

PM2.5浓度在浓度限值区间

每日AQI值数据曲线

可能是一些误差

SO2浓度与NO2浓度变化趋势

PM10浓度与空气湿度变化趋势可视化

PM2.5浓度与空气湿度变化趋势可视化

O3浓度与云量变化趋势可视化


总纲

(保姆级)Spark气象监测数据分析-总纲

写在前面的话

首先这篇博客绝对原创。读者遇到编程中的任何问题可以留言,看到了就会回复

需要的前瞻知识

这篇博客是假设读者都是已经安装好了Hadoop,Spark,以及对idea插件等,如果在安装这些大数据软件遇到了困难可以根据版本号在CSDN里搜对应的大数据软件安装

用到的软件版本

Hadoop2.7.7;Java1.8.0;sbt1.4.0;Spark2.4.0;Hive2.1.1;ZooKeeper3.5.10;Python3.7.9

数据集

数据集

也可点击下面的链接

链接:https://pan.baidu.com/s/13T8IHjAjvbsvQtQ01Ro__Q?pwd=494j 
提取码:494j

代码原理

对于SO2和NO2的趋势可视化我只展示了前100个,因为图只有这么大,整个数据有18932个,画完所有是比较漫长也没有含义的,有兴趣的可以改一下,真的分析一下,得到一些结论

所有代码

对于代码我分成了几个部分

 导包
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import glob
  主函数代码
drawTask1NO2()
drawTask2PM25()
drawTask3()
drawTask4NO2_SO2()
1.画污染物浓度排名前20的时段数据可视化结果的代码(只展示了NO2)
def drawTask1NO2():
    path = "/root/work/Task1/NO2_20.csv/*.csv"
    all_files = glob.glob(path)

    # 读取csv文件
    df = pd.concat(map(pd.read_csv, all_files))

    # print(df)

    # 设置画图的大小
    plt.figure(figsize=(20, 12))

    # 绘制线图,x轴是时间,y轴是NO2浓度
    plt.plot(df['监测时间'], df['NO2监测浓度(μg/m³)'])

    plt.xticks(rotation=300)
    plt.title(u'Trend of NO2')
    plt.xlabel(u'Time')
    plt.ylabel(u'NO2 Concentration')
    # 显示图形
    plt.show()
  • 2
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值