python 爬虫获取商家信息_Python利用百度地图爬取商家信息

本文介绍如何使用Python结合百度地图API,搜索并爬取多个城市的商家信息,包括名称、电话、省份、城市、区域和地址,并将数据保存为CSV文件。
摘要由CSDN通过智能技术生成

import requests

import json

import pandas as pd

def request_hospital_data():

ak="换成自己的 AK" # 换成自己的 AK,需要申请

ct = ('衢州','宁波','台州','温州','丽水','杭州','湖州','金华')

keywords=('粥')

url = ["http://api.map.baidu.com/place/v2/search?query="+keywords+"&page_size=20&scope=1&region=" + cs + "&output=json&ak=" + ak for cs in ct]

params = {'page_num':0} # 请求参数,页码

for url1 in url:

#print(url1)

request = requests.get(url1,params=params)

#print(request)# 请求数据

total = json.loads(request.text)['total'] # 数据的总条数

#print(total)

total_page_num = (total+19) // 20 # 每个页面大小是20,计算总页码

items = [] # 存放所有的记录,每一条记录是一个元素

for i in range(total_page_num):

params['page_num'] = i

request = requests.get(url1,params=params)

for item in json.loads(request.text)['results']:

if "telephone" in item:

name = item['name']

telephone = item.get('telephone', '')

province = item['province']

city = item['city']

area = item['area']

address = item['address']

#print(name,telephone,province,city,area,address)

new_item = (name,telephone,province,city,area,address)

#print(new_item)

items.append(new_item)

#使用pandas的DataFrame对象保存二维数组

df = pd.DataFrame(items, columns=['name','telephone','province','city','area','address'])

print(df)

#df.drop_duplicates(inplace=True)

df.to_csv('粥1.csv', index=False,encoding='',mode='a')

request_hospital_data()

本文地址:https://blog.csdn.net/weixin_45206990/article/details/108251724

希望与广大网友互动??

点此进行留言吧!

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值