python 爬虫餐饮行业 数据分析_Python爬取美团美食板块商家数据

导语

利用Python简单爬取美团美食板块商家数据。。。

其实一开始我是想把美团的所有商家信息爬下来的,这样就可以美其名曰百万数据了。。。

然而相信很多爬过美团的朋友都发现了。。。

如果不进行一些小操作。。。

爬不了几页代码就GG了。。。

后来想想我要这么多数据也没什么用。。。

唯一对我有用的。。。

大概就是美食板块了。。。

以后用到其他板块的时候再另外爬就好了。。。

OK,Let's go!

主要思路

目的:

根据输入的城市名,爬取该城市美团美食板块所有商家的数据。数据包括:

店名、评分、评论数量、均价、地址,

并将这些数据存入Excel中。

最后尝试对爬取到的数据做一个简单的分析。

克服反爬虫:

爬取每页数据后,随机停止一段时间后再爬下一页;

每页使用不同的cookie值。

具体原理:

没用抓包软件。。。

Chrome打开后看了下xhr。。。

发现直接有接口可以用。。。

给个cookie就能返回所需的数据了。。。

后来随便点了几个其他板块的网页。。。

发现也差不多是这个套路。。。

详细的实现过程见源代码。

开发工具

Python版本:3.5.4

相关模块:

requests模块;

win_unicode_console模块;

openpyxl模块;

以及一些Python自带的模块。

环境搭建

安装Python并添加到环境变量,pip安装需要的相关模块即可。

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,下面是一个简单的Python爬虫爬取网页数据并解析数据的教程: 1. 确定目标网站和要爬取的信息 首先,需要确定要爬取的网站和要提取的信息。可以使用Python的requests库向网站发送HTTP请求获取HTML源代码,并使用BeautifulSoup库解析HTML文档获取目标数据。 例如,我们要爬取CSDN博客的文章标题和链接,可以先打开CSDN博客主页,右键查看网页源代码,找到文章标题和链接所在的HTML标签。 2. 发送HTTP请求获取HTML源代码 接下来,使用Python的requests库向网站发送HTTP请求,获取HTML源代码。 ``` import requests url = 'https://blog.csdn.net/' response = requests.get(url) html = response.text ``` 3. 解析HTML文档获取目标数据 使用BeautifulSoup库解析HTML文档,获取目标数据。 ``` from bs4 import BeautifulSoup soup = BeautifulSoup(html, 'html.parser') titles = soup.find_all('div', class_='title') for title in titles: link = title.find('a').get('href') title_text = title.find('a').text.strip() print(title_text, link) ``` 上述代码中,通过`find_all`方法找到所有class属性为"title"的div标签,然后在每个div标签中找到第一个a标签,获取链接和标题文本。 4. 完整代码 ``` import requests from bs4 import BeautifulSoup url = 'https://blog.csdn.net/' response = requests.get(url) html = response.text soup = BeautifulSoup(html, 'html.parser') titles = soup.find_all('div', class_='title') for title in titles: link = title.find('a').get('href') title_text = title.find('a').text.strip() print(title_text, link) ``` 以上就是一个简单的Python爬虫爬取网页数据并解析数据的教程。需要注意的是,在爬取网站数据时要遵守网站的爬虫协议,避免被网站封禁IP。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值