全国各市区县7日天气数据爬取

本文介绍了一个使用Python爬虫技术从中国天气网抓取全国各市区县7天天气数据的过程,包括获取网页源码、处理异常值、提取天气信息和构建最终结果。
摘要由CSDN通过智能技术生成

全国各市区县7日天气数据爬取

设计思路(暂缺)

还没整理好语言

代码

导入库

import requests
import numpy as np
import pandas as pd
from bs4 import BeautifulSoup

获取网页链接

def getHTMLText(url, timeout=30):
    try:
        r = requests.get(url, timeout=30)
        r.raise_for_status()
        r.encoding = r.apparent_encoding
        return r.text
    except:
        return '产生异常'

获取网页源码

def get_html(html):
    final_list = []
    soup = BeautifulSoup(html, 'html.parser')
    body = soup.body
    return body

处理异常值函数,并且避免重复。不用set是因为网页害怕url抓取错误

def check_all(s,a):
    return  'None' in s or '详情' in s or s in a 

获取七天的天气数据

def get_data(html):
    final_list = []
    soup = BeautifulSoup(html, 'html.parser')
    body = soup.body
    data = body.find('div', {'id': '7d'})
    ul = data.find('ul')
    lis = ul.find_all('li')

    for day in lis:
        temp_list = []

        date = day.find('h1').string
        temp_list.append(date)

        info = day.find_all('p')
        temp_list.append(info[0].string)

        if info[1].find('span') is None:
            temperature_highest = ' '
        else:
            temperature_highest = info[1].find('span').string
            temperature_highest = temperature_highest.replace('℃', ' ')

        if info[1].find('i') is None:
            temperature_lowest = ' '
        else:
            temperature_lowest = info[1].find('i').string
            temperature_lowest = temperature_lowest.replace('℃', ' ')
            temp_list.append(temperature_highest)
            temp_list.append(temperature_lowest)

        wind_scale = info[2].find('i').string
        temp_list.append(wind_scale)
        final_list.append(temp_list)
    return final_list

获取所有省的url

url = 'http://www.weather.com.cn/textFC/hn.shtml'
html = getHTMLText(url)
final_list = get_html(html)
final_list=final_list.find('div', {'class': 'lqcontentBoxheader'})
final_list = final_list.find_all('li')
final_a=[]
add=[]
url=[]
s='http://www.weather.com.cn'
for x in final_list:
    list=x.find_all('a')
    for i in list:
        add.append(i.string)
        url.append(s+i.get('href'))
    final_a.append(list)
print(url)
print(add)

获取每个省各个市区县的url

count = 0
index=0
province_info={}
final_url=[]
final_city=[]
for i in url:
    a_url=i
    html = getHTMLText(a_url)
    final_list = get_html(html)
    final_list=final_list.find_all('div', {'class': 'conMidtab3'})
    # print(len(final_list))
    # print(final_list[0:len(final_list)])
    final_a=[]
    city=[]
    c_url=[]
    for i in final_list:
        s=i.find_all('a')
        for i in s:
            s=str(add[index])+'-'+str(i.string)
            if check_all(s,city):
                continue
            city.append(s)
            c_url.append(i.get('href'))
        final_a.append(s)
    final_url.append(c_url)
    final_city.append(city)
    count+=len(city)
    province_info[add[index]]=city
    index+=1
print(count)
print(final_city)
print(final_url)
print(province_info)

把各个标签映射成字典

final_city=[i for item in final_city for i in item]
final_url=[i for item in final_url for i in item]
final_dic=dict(zip(final_city,final_url))
print(final_dic)

遍历字典,获取各个县市七天的天气详情

final_result=[]
for key in final_dic:
    url =final_dic[key]
    html=getHTMLText(url)
    wether=get_data(html)
    tmp=[]
    for i in wether:
        result=[key]
        result=result+i
        tmp.append(result)
        print(result)
    final_result.append(tmp)
weixin151云匹面粉直供微信小程序+springboot后端毕业源码案例设计 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。 1、资源项目源码均已通过严格测试验证,保证能够正常运行; 2、项目问题、技术讨论,可以给博主私信或留言,博主看到后会第一时间与您进行沟通; 3、本项目比较适合计算机领域相关的毕业设计课题、课程作业等使用,尤其对于人工智能、计算机科学与技术等相关专业,更为适合; 4、下载使用后,可先查看README.md或论文文件(如有),本项目仅用作交流学习参考,请切勿用于商业用途。 5、资源来自互联网采集,如有侵权,私聊博主删除。 6、可私信博主看论文后选择购买源代码。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值