python爬取高德地图乡镇区行政区划

本文介绍如何使用Python爬虫获取高德地图上的湖南省各行政级别数据,包括省、市、县、区,数据详细至区级。
摘要由CSDN通过智能技术生成

适用于爬取一个省、市、县、区等各个行政级别的行政区划数据,数据精确到区
级别。
以湖南省为例:
在这里插入图片描述

# -*- coding:utf-8 -*-
import arcpy
import urllib2
import sys
import json
import math

# 申请:高德API的开发者KEY
# 版本要求:ArcGis 10.2 Python 2.7
# 输入:输入省的名称 存储路径 文件名称
# 输出:该省的行政区划的shp 字段 city citycode district adcode


# 获取行政区划范围内的乡镇区划列表 并插入数据
def get_ad(name):

    url = "http://restapi.amap.com/v3/config/district?extensions=base&subdistrict=3&key="+key+"&keywords="+name
    # extensions说明:all只返回当前查询的district边界坐标点
    # subdistrict说明:1表示下一级行政区(到市),2表示下两级行政区(到乡镇区县),3表示下三级行政区(到街道)
    try:
        req = urllib2.Request(url)
        res_data = urllib2.urlopen(req)
        res = res_data.read()
        data = json.loads(res)
        # 返回查询字段的行政区列表
        city_list = data['districts'][0]['districts']
        for city in city_list:
            district_list = city['districts']
            districts = {
   }  # 存储district列表
            for district in district_list:
                districts[district['adcode'].encode('utf-8')] = district['name'].encode('utf-8')
            # 添加数据
            set_polyline(districts, city['name'].encode('utf-8'), city['citycode'].encode('utf-8'))
    except urllib2.HTTPError, e:
        if hasattr(e, "code"):
            print e.code
        if hasattr(e, "reason"):
            print<
Python爬取高德地图充电站点数据通常涉及网络爬虫技术,可以利用第三方库如`requests`发送HTTP请求获取网页内容,然后使用`BeautifulSoup`或`lxml`解析HTML结构,提取所需的数据。高德地图API提供了相关的开放数据服务,如果你打算通过官方接口获取信息,你需要注册并获得相应的密钥。 以下是简单的步骤概述: 1. **安装必要的库**: - `requests`: 发送HTTP请求 - `beautifulsoup4` 或 `lxml`: 解析HTML ```bash pip install requests beautifulsoup4 # 或者如果使用lxml作为解析器 pip install lxml ``` 2. **设置高德地图API**: - 注册账号并申请开发者权限,获取API Key和城市编码等信息。 3. **编写Python脚本**: ```python import requests from bs4 import BeautifulSoup # 将你的API Key、城市编码替换这里 gmap_api_key = "your_api_key" city_code = "your_city_code" # 构造搜索URL url = f"https://restapi.amap.com/v3/place/search?city={city_code}&key={gmap_api_key}&output=json&extensions=all&searchType=around ChargingStation" response = requests.get(url) data = response.json() # 使用BeautifulSoup解析返回的JSON数据,提取充电站相关信息 stations = data['pois'] for station in stations: name = station['name'] # 充电站名称 location = station['location']['lat'], station['location']['lng'] # 经纬度坐标 print(f"名称:{name}, 地址:{location}") ``` 请注意,实际操作中,可能会遇到反爬机制或数据隐私策略限制,因此务必遵守高德地图的服务条款,并尊重数据所有权。另外,频繁的请求可能会被视为滥用,所以合理控制请求频率是很重要的。
评论 8
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值