python 爬虫通过高德api接口抓取景区/小区边界

高德api接口地址:https://lbs.amap.com/api/webservice/guide/api/search

如果不是高德开发者可以申请为开发者

第一步,申请”Web服务API”密钥(Key);

第二步,拼接HTTP请求URL,第一步申请的Key需作为必填参数一同发送;

第三步,接收HTTP请求返回的数据(JSON或XML格式),解析数据。

如无特殊声明,接口的输入参数和输出数据编码全部统一为UTF-8。

 

1. 通过高德搜索接口得到附近小区搜索列表

解析后获取到正确小区的id

其中city是城市代码,可以通过浏览器手工获取到。words是搜索的具体风景区名称。

url链接 

https://restapi.amap.com/v3/place/text?key=4b86820a7590de60e4f81f53e59ae17f&citylimit=true&output=json&

key为申请的密钥,申请详细步骤文档有说明

keywords 查询的关键词,如景区/小区名称

city 查询的目标城市

示例

https://restapi.amap.com/v3/place/text?key=4b86820a7590de60e4f81f53e59ae17f&citylimit=true&output=json&keywords=中山陵景区&city=南京

返回结果为json字符串

 

 

提取景区/小区的id:B0FFHVEECG

方案1

1.然后通过poiid调用另外一个接口查询该景区/小区

接口地址:

https://ditu.amap.com/detail/get/detail?id=B0FFHVEECG

参数id填写上面获取到的poiid=B0FFHVEECG

1. 将返回的结果转成json然后逐层提取出来

2.存入数据库或者csv文档

    def info(self, response):
        meta = response.meta
        data = json.loads(response.text)
        print(data)
        try:
            if data["status"] == "1":
                spec = data["data"]["spec"]
                border = spec["mining_shape"]["shape"]
                print("border ",border)
                AllCityDataSQL().UpdateXcJingDianiData((meta["id"]),border)
        except:
            print("查询错误~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~" + meta["url"])

方案2

2. 通过poiid查找边界信息,红色部分可以替换成其他城市代码(身份证前6位)和景区id

接口地址 https://gaode.com/service/poiInfo?query_type=IDQ&pagesize=20&pagenum=1&qii=true&cluster_state=5&need_utd=true&utd_sceneid=1000&div=PC1000&addr_poi_merge=true&is_classify=true&zoom=11&id=B022F0071G&city=341003

返回json字符串

 

value字段 由一堆坐标组成的数值

 

1.将返回的结果转成json ,然后逐层提取出来

2.返回的value字段值还需修改一下,将_换成,才能使用

3.存入数据库或者csv文档

  • 5
    点赞
  • 34
    收藏
    觉得还不错? 一键收藏
  • 9
    评论
### 回答1: 好的,这是一个使用 Python 爬虫通过 API 抓取数据的示例: ``` import requests url = "https://api.example.com/data" response = requests.get(url) if response.status_code == 200: data = response.json() print(data) else: print("请求失败,状态码:", response.status_code) ``` 这段代码使用了 `requests` 库发送一个 GET 请求到 API 地址 `https://api.example.com/data`。如果请求成功(即返回状态码为 200),将返回的数据(格式为 JSON)解析并打印。如果请求失败,则打印错误信息。 ### 回答2: 编写一个通过API抓取数据的Python爬虫,主要分为以下几个步骤: 第一步,导入所需的库。首先导入`requests`库用于发送HTTP请求,以获取API的数据。然后导入`json`库用于处理返回的JSON数据。 第二步,定义API的URL和参数。根据需要访问的API,设置相应的URL以及可能需要的参数。例如,如果要从一个天气API中获取某城市的天气数据,可以设置URL为相应的API链接,参数可以是城市的名称、日期等。 第三步,发送HTTP请求并获取数据。使用`requests`库发送GET请求,将API的URL和参数作为参数传递给`requests.get()`函数。然后,使用`response.json()`来获取返回的数据,并将其存储在一个变量中。 第四步,解析数据。根据API返回的数据结构,使用`json`库来解析返回的JSON数据。通常可以使用字典和列表的方式来访问和提取所需的数据。 第五步,处理和存储数据。根据需要,可以对数据进行进一步处理,例如将其转换为CSV文件、存储到数据库或进行可视化处理。 第六步,异常处理。在进行API请求和数据处理的过程中,可能会出现各种错误,例如网络连接错误、API返回错误等。需要使用`try-except`语句来捕获这些异常,并添加适当的处理程序。 第七步,运行爬虫。最后,编写一个主函数,调用前面定义的函数,并运行爬虫代码。可以使用循环来定期执行爬虫,以获取最新的数据。 总结:以上是一个简单的通过API抓取数据的Python爬虫的大致步骤。实际使用时,需要根据具体的API接口和数据处理需求进行相应的调整和优化。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 9
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值