爬虫实战-肯德基kfc门店地址实战

这篇博客介绍了使用Python进行基础的网络爬虫实践,以肯德基门店地址为例。首先展示了如何获取和发送请求,然后逐步改进代码,允许用户输入不同城市以爬取相应城市的门店信息,并保存为与城市名对应的JSON文件。虽然目前尚未实现翻页功能,但博主已经迈出了爬虫学习的重要一步。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

 这是较为基础的肯德基门店地址的爬取,网上有很多的教程,此处作为练手贴出代码。

下面的就是基础的代码,不能翻页,也不能改地址,是最简单的爬取了

import requests
import json

#获取网页
#网页在页面右击check中,network-  Fetch/XHR里
url='http://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?op=keyword'

#发送请求
#User-Agent是每个人不一样的,需要找到并替换
header={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.107 Safari/537.36'}
param={'cname':'', 
'pid':'', 
'keyword': '北京',
'pageIndex': '1',
'pageSize': '10'}#在网页的最底下有,复制过来加上引号即可

response=requests.post(url=url,data=param,headers=header)

#获取响应数据
kfc_data=response.json()

#永久化存储
fp=open('./kfc.json','w',encoding='utf-8')
json.dump(kfc_data,fp=fp,ensure_ascii=False)

print('爬取结束')

下面是做了一点点改动以后,可以选择不同的地址。

变化仅仅在两处:

1.param的设置,将原有的’北京‘改为input地址。

2.最后的#永久化存储 。 文件命名改成了和地址有关的,而不是固定的。

import requests
import json

#获取网页
#网页在页面右击check中,network-  Fetch/XHR里
url='http://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?op=keyword'

#发送请求
header={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/92.0.4515.107 Safari/537.36'}
data=input('enter a city:')
param={'cname':'', 
'pid':'', 
'keyword': data,
'pageIndex': '1',
'pageSize': '10'}#在网页的最底下有,复制过来加上引号即可

response=requests.post(url,headers=header,data=param)

#获取响应数据
kfc_data=response.json()

#永久化存储
filename=data+'.json'
fp=open(filename,'w',encoding='utf-8')
json.dump(kfc_data,fp=fp,ensure_ascii=False)

print('爬取结束')

下面是在该地址的基础上做翻页的。

还没有学会 QAQ

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值