python-爬虫-高德地图,地区天气爬取

话不多说,直接上效果图
在这里插入图片描述
源码奉上:

import requests
import json
from my_fake_useragent import UserAgent as UA
# 接口网址
base_url = "https://amap.com/service/cityList?version=202131521"
# 请求头
headers = {
    'amapuuid': '1adf666e-5637-4ff4-981e-c34fe562b4e9',
    'Cookie': 'guid=4a69-754b-b1cd-19e1; UM_distinctid=1785d14af74762-097b12672f60e7-5c3f1d4d-1fa400-1785d14af7568b; cna=3ptRFijUtSUCAXGLwLtZdiNS; xlly_s=1; CNZZDATA1255626299=324845398-1616542524-%7C1616542524; _uab_collina=161654537531202567282194; l=eBTatmBIjh1cqdnjKOfanurza77OSIRYYuPzaNbMiOCPOkfB5ScFW6wwpY86C3GVh6XDR3Ratr6wBeYBqQAonxv9_vsBJeHmn; tfstk=cNUdBV0SaOX3xgcTgkIMN4IMWoCGwRW-CBMky6H1hn6oRA1cmr4YmrIINbBh6; isg=BGVlUU8naT5VnY3hiqesKjlNdCGfohk01NOj8WdKIRyrfoXwL_IpBPMYCOII-jHs',
    'Referer': 'https://amap.com/',
    'UserAgent': UA().random(),
    'Connection': 'keep-alive'
}
az = {}

# 这里设置循环是因为这接口有时候请求不到,所以这就用循环一直请求,直到成功
def content():
    respone = requests.get(base_url, headers=headers)
    result = respone.json()
    if result['update']:
        res = result['data']['cityByLetter']
        for i in res:
            for j in res[i]:
                az[f"{j['name']}"] = f"{j['adcode']}"
        return az
    else:
        content()

# 这里是拼接出完整的天气网址,并获取数据
def weather_con(name):
    global dd2, dd3, dd4, dd5, dd6, dd7, dd8
    headers = {
        'UserAgent': UA().random(),
        'Cookie': 'guid=4a69-754b-b1cd-19e1; UM_distinctid=1785d14af74762-097b12672f60e7-5c3f1d4d-1fa400-1785d14af7568b; cna=3ptRFijUtSUCAXGLwLtZdiNS; xlly_s=1; CNZZDATA1255626299=324845398-1616542524-%7C1616542524; _uab_collina=161654537531202567282194; l=eBTatmBIjh1cqdnjKOfanurza77OSIRYYuPzaNbMiOCPOkfB5ScFW6wwpY86C3GVh6XDR3Ratr6wBeYBqQAonxv9_vsBJeHmn; tfstk=cNUdBV0SaOX3xgcTgkIMN4IMWoCGwRW-CBMky6H1hn6oRA1cmr4YmrIINbBh6; isg=BGVlUU8naT5VnY3hiqesKjlNdCGfohk01NOj8WdKIRyrfoXwL_IpBPMYCOII-jHs',
        'Cache - Control': 'max - age = 0',
        'Accept': "text / html, application / xhtml + xml, application / xml;q = 0.9, image / webp, image / apng, * / *;q = 0.8, application / signed - exchange;v = b3;q = 0.9",
        'Host': 'amap.com'
    }
    name1 = str(az[name])
    weather_url = "https://amap.com/service/weather?adcode=" + name1
    wea = requests.get(weather_url, headers=headers)
    details = wea.json()
    dd = details['data']['data'][0]
    dd2 = dd['report_time']  # 上次的查询天气时间
    dd3 = dd['live']['weather_name']  # 查询出来的天气
    dd4 = dd['live']['temperature']  # 查询当前温度
    for cc in dd['forecast_data']:
        dd5 = cc['max_temp']  # 最高温度
        dd6 = cc['min_temp']  # 最低温度
        dd7 = cc['wind_direction_desc']  # 风向
        dd8 = cc['wind_power_desc']  # 风级
    print('查询地址:', name)
    print('报告时间:', dd2)
    print('当前天气:', dd3, '当前温度:', dd4)
    print('今天最高温度/最低温度:', dd5, '/', dd6)
    print('今日风向', dd7, '风级', dd8)
    change = input('是否继续查询:(y/n)')
    if change == 'y':
        main()
    else:
        exit()

# 判断输入是都有误
def search(name):
    sea_name = name
    if sea_name in az.keys():
        return True
    else:
        print('输入有误')
        return False

# 启动函数
def main():
    content()
    name = str(input('你想查看那个城市的天气(市级城市)'))
    if search(name=name):
        weather_con(name=name)
    else:
        gg = input('输入有误!是否重输:(y/n)')
        if gg == 'y':
            main()
        else:
            print('拜拜')
            exit()


if __name__ == '__main__':
    main()

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
你可以使用Python编写爬虫爬取高德数据。具体的步骤如下: 1. 首先,你需要安装Python的相关库,比如requests和BeautifulSoup等。这些库可以帮助你发送HTTP请求并解析HTML页面。 2. 接下来,你可以使用requests库发送GET请求到高德的数据接口。你可以参考引用中的示例代码。这个接口可以根据你提供的参数,返回相应的数据。 3. 解析返回的数据。高德的数据一般是以JSON格式返回的,你可以使用Python的json库来解析这些数据。根据你的需求,提取出你需要的数据。 4. 对于复杂的爬取任务,你可以考虑使用爬虫框架Scrapy。引用中提供了一个使用Scrapy爬取网页数据的示例代码。你可以参考这个示例来编写你自己的爬虫。 总结起来,你可以通过Python编写爬虫爬取高德的数据,具体的实现方式取决于你的具体需求和技术栈。希望这些信息对你有所帮助!<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [python爬取高德地图全国农贸市场数据,基于python3哈](https://download.csdn.net/download/w150125110/12193904)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] - *2* [爬虫入门经典(五) | 简单一文教你如何爬取高德地图](https://blog.csdn.net/qq_16146103/article/details/109217510)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] - *3* [使用Python爬虫框架Scrapy来爬取网页数据.txt](https://download.csdn.net/download/weixin_44609920/88225579)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] [ .reference_list ]
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值