python爬取历史天气_python爬取历史天气数据

环境说明

Python版本:2.7

操作系统:windows 7

所依赖的包(如若没有请安装)

包名说明官方地址

requests基于 urllib,采用 Apache2 Licensed 开源协议的 HTTP 库https://pypi.python.org/pypi/requests/

xlwt本文中将获取得到的天气数据存储在xls中,需要对excel进行处理的包https://pypi.python.org/pypi/xlwt

# -*- coding=utf-8 -*-

from bs4 import BeautifulSoup

import requests import xlwt import os#获得某一个月的天气数据

defgetListByUrl(url):

res = requests.get(url)

soup = BeautifulSoup(res.text,"html.parser")

weathers = soup.select("#tool_site")

title = weathers[1].select("h3")[0].text

weatherInfors = weathers[1].select("ul")

weatherList = list()forweatherInforinweatherInfors:

singleWeather = list()forliinweatherInfor.select('li'):

singleWeather.append(li.text)

weatherList.append(singleWeather)

print(title)returnweatherList,title#@par:addressUrl 获得某地区的数据#@par:excelSavePath  数据的保存地址defgetListByAddress(addressUrl,excelSavePath):# url = "http://lishi.tianqi.com/beijing/index.html"url = addressUrl

res = requests.get(url)

soup = BeautifulSoup(res.text,"html.parser")

dates = soup.select(".tqtongji1 ul li a")

workbook = xlwt.Workbook(encoding='utf-8')fordindates:

weatherList,title = getListByUrl(d["href"])

booksheet = workbook.add_sheet(title,cell_overwrite_ok=True)fori,rowinenumerate(weatherList):forj,colinenumerate(row):

booksheet.write(i,j,col)

workbook.save(excelSavePath)if__name__ =="__main__":

addressName = raw_input("请输入即将获取天气的城市:\n")

addresses = BeautifulSoup(requests.get('http://lishi.tianqi.com/').text,"html.parser")

queryAddress = addresses.find_all('a',text=addressName)iflen(queryAddress):

savePath = raw_input("检测到有该城市数据,请输入即将保存天气数据的路径(如若不输入,将默认保存到c:/weather/"+addressName+".xls):\n")ifnotsavePath.strip():ifnotos.path.exists('c:/weather'):

os.makedirs('c:/weather')

savePath ="c:/weather/"+addressName+".xls"forqinqueryAddress:

getListByAddress(q["href"],savePath)

print("已经天气数据保存到:"+savePath)else:

print("不存在该城市的数据")

本代码是在windows下编辑的,如若想要在Linux下运行,请在头部加上#! python环境

本代码功能描述:

输入:

城市名称,如果没有则提示“不存在该城市的数据”

保存路径,如果不输入则默认保存在“c:/weather/城市名称.xls”

输出:

带有该城市的天气数据

代码演示

本程序是在pycharm IDE下开发的,直接利用pycharm执行,大家可以用别的编辑器来执行(注意,由于编码问题,如果直接用dos来执行会报错)

将getWeatherByQuery.py文件导入到pycharm下执行,如下图所示:

按照提示,输入城市,检测到有该城市,请求输入保存路径

在这里我们输入要保存的路径(当然也可以直接回车),在这里我输入“d:\weather\bj.xls”(请确保该目录存在,因为程序不会自动去创建目录)

此时程序会将各月份的数据导出

执行完之后结果如下图:

excel中的数据如下图:

好的,您想了解如何用 Python 爬取历史天气数据,是吗? 首先,需要确定您想要爬取哪个地区的历史天气数据。一般来说,可以通过查询该地区的气象局或气象网站获取历史天气数据。 接着,可以使用 Python 中的 requests 库来发送 HTTP 请求,获取网页源代码。然后,可以使用 BeautifulSoup 库来解析网页源代码,提取出所需的天气数据。 以下是一个简单的示例代码,用于爬取中国天气网上北京市 2019 年 1 月份的历史天气数据: ``` python import requests from bs4 import BeautifulSoup url = 'http://www.weather.com.cn/weather/101010100.shtml#dt' headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.3'} r = requests.get(url, headers=headers) r.encoding = 'utf-8' soup = BeautifulSoup(r.text, 'html.parser') weather_list = soup.select('.t li') for weather in weather_list: date = weather.select('.time')[0].text weather_detail = weather.select('.temp')[0].text.strip() print(date, weather_detail) ``` 以上代码中,我们首先通过 requests 库发送了一个 GET 请求,获取了北京市天气网的网页源代码。然后,使用 BeautifulSoup 库解析网页源代码,提取出了 2019 年 1 月份的天气数据,并打印输出了日期和天气详情。 需要注意的是,不同的网站网页结构不同,需要根据具体情况修改代码。同时,需要注意网站的 robots.txt 文件,不要过度访问网站,以免被封 IP 或其他限制。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值
>