[python爬虫]爬取天气网全国所有县市的天气数据

本文介绍如何使用Python爬虫技术,通过访问特定URL并利用XPath解析HTML,抓取中国所有县市的天气信息。首先讲解访问天气网站的URL,接着详细阐述解析数据的步骤,最后将爬取到的数据保存到Excel文件中。
摘要由CSDN通过智能技术生成

[python爬虫]爬取天气网全国所有县市的天气数据


所要用到的库

import requests
from lxml import etree
import xlwt

访问URL

这里我们要用xpath来解析数据,所以我们返回的网页数据格式为html
没学过xpath的可以看看这篇博客,写的还是很详细的
xpath链接
https://blog.csdn.net/u013332124/article/details/80621638

def ask_url(url):
	# 伪装请求头 
	header = {
   
		"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.116 Safari/537.36"
	}
	response = requests.get(url, headers=header)
	# 以html格式返回数据
	html = etree.HTML(response.text)
	return html

解析数据

所要爬取的数据有一下
在这里插入图片描述
先是爬取每个省份URL的尾部,然后一个个访问。

def get_data(url):
	html = ask_url(url)
	base_url = 'http://www.weather.com.cn'
	province_name = []			# 省份名字
	# province_url = []			# 省份的URL
	city_name = []				# 城市名称
	weather = []				# 天气现象
	wind_direction = []			# 风向
	wind_power = []				# 风力
	max_temperature = []		# 最高温
	min_temperature = []		# 最低温
	data = []					# 数据汇总

	province_name_decode = html.xpath('//div[@class="lqcontentBoxheader"]//a[@target="_blank"]/text()')
	for i in range(len(province_name_decode)):
		# print(province_name_decode[i].encode('raw_unicode_escape').decode())
		province_name.append(province_name_decode
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值