午餐不知道吃什么?用 Python 爬美团App评论选餐!

677 篇文章 324 订阅
31 篇文章 6 订阅

img

作者: 想的美

一、介绍

朋友暑假实践需要美团外卖APP评论这一份数据,一开始我想,这不就抓取网页源代码再从中提取数据就可以了吗,结果发现事实并非如此,情况和之前崔大讲过的分析Ajax来抓取今日头条街拍美图类似,都是通过异步加载的方式传输数据,不同的是这次的是通过JS传输,其他的基本思路基本一致,希望那些数据能帮到她吧
image

当然在学习Python的道路上肯定会困难,没有好的学习资料,怎么去学习呢? 学习Python中有不明白推荐加入交流群号:790921645 群里有志同道合的小伙伴,互帮互助, 群里有不错的视频学习教程和PDF!

二、流程

  • 目标站点分析
    用浏览器打开美团外卖APP评论,F12

    1.首先我们要找到我们想要的评论数据,在第一次“失败”的直接抓取网页源代码后,我们发现它是通过Ajax加载的,我们点击JS选项,可以发现JS项目里面的返回结果有我们想要的数据,勾选Preserve log,当点击查看更多评论时,后台(JS里)会出现新的Ajax请求,发现还有参数start和 的变化,其他请求参数不变,start的参数变化是以10递增的, 的参数变化可就让人摸不着头脑(这个时候我们也不要方,因为大多情况下没有规律的参数都是没用的)

    img

2.经过我们对http://comment.mobilem.360.cn/comment/getComments?callback=jQuery17203361018749253357_1503362214558&baike=%E7%BE%8E%E5%9B%A2%E5%A4%96%E5%8D%96+Android_com.sankuai.meituan.takeoutnew&c=message&a=getmessage&start=0&count=10&_=1503362215647

进行分析后发现它的标准式为

http://comment.mobilem.360.cn/comment/getComments?&baike=美团外卖+Android_com.sankuai.meituan.takeoutnew&start=’+str(i*10),i每次增加1,就包含新的十条评论的内容,所以我们通过改变i的值就可以拿到不同的数据

img

  • 分析url的网页源代码,在源代码里有我们想要的评论数据,我们可以用正则(在这里正则还是比较好用的)把我们想要的信息弄下来
  • 开启循环,批量抓取
  • 保存数据至文本和数据库
#之前是这样处理的: def parse_one_page(html):     pattern2 = re.compile('"m_type":"0",(.*?),"username"', re.S)     items=re.findall(pattern2,html)     for item in items:         item = "{" + item + "}"         item=json.loads(item)         write_to_file(item)         print(item)         save_to_mongo(item) #皮皮哥告诉了我他的独家正则匹配方法可以匹配出来,这样的确获得的item没有编码问题 def parse_one_page(html):     pattern = '\"content\":\".*?"'     items=re.findall(pattern,html)     for item in items:         item =eval(item.split(':',1)[1])         write_to_file(item)         print(item)         save_to_mongo(item) #对一般正则写法获得的item进行的方法,这是从皮皮哥那里得知的,亲测有效 def parse_one_page(html):     pattern = re.compile('rsion_name".*?"content":(.*?),"username"', re.S)     items=re.findall(pattern,html)     #print(items)     for item in items:         item = item.encode('utf-8').decode('unicode_escape')         write_to_file(item)         print(item)         save_to_mongo(item)

三、代码

#config.py MONGO_URL='localhost' MONGO_DB='meituan' MONGO_TABLE='meituan'
import requests from requests.exceptions import RequestException import json import re from day31.config import * import pymongo client=pymongo.MongoClient(MONGO_URL) db=client[MONGO_DB] base_url='http://comment.mobilem.360.cn/comment/getComments?callback=jQuery17209056727722758744_1502991196139&baike=%E7%BE%8E%E5%9B%A2%E5%A4%96%E5%8D%96+Android_com.sankuai.meituan.takeoutnew&start=' def the_url(url):     try:         response = requests.get(url)         if response.status_code==200:             response.encoding='utf-8'             return response.text         return None     except RequestException:         print('请求出错')         return None def the_total():     html=the_url(base_url)     pattern1 = re.compile('"total":(.*?),"messages"', re.S)     Total = re.findall(pattern1, html)     Total=int(':'.join(Total))     #print(type(Total))     show='总计评论%d条'%Total     print(show)     write_to_file(show)     return Total def parse_one_page(html):     pattern2 = re.compile('"m_type":"0",(.*?),"username"', re.S)     items=re.findall(pattern2,html)     for item in items:         item = "{" + item + "}"         item=json.loads(item)         write_to_file(item)         print(item)         save_to_mongo(item) def save_to_mongo(result):     try:         if db[MONGO_TABLE].insert(result):             print('储存到MongoDB成功',result)     except Exception:         print('储存到MongoDB失败',result) def write_to_file(content):     with open('meituan_result.text','a',encoding='utf-8') as f:         f.write(json.dumps(content,ensure_ascii=False)+'\n')         f.close() def main():     Total=the_total()     Total=int(Total/10)+2     for i in range(Total):         url = base_url + str(i*10)         if the_url(url)!=None:             html=the_url(url)             parse_one_page(html)         else:             print('输完啦')     ps='PS:因为有些评论空,所以实际评论比抓取的少'   #这是我瞎猜的     write_to_file(ps)     print(ps) if __name__ == '__main__':     main()

四、最后得到的数据视图和文件

img

五、总结

1.程序报错很正常,不要一报错就问别人,先自己思考、百度

2.在数据类型处理方面的知识还要加强

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python爬虫美团APP是一种使用Python编写的程序,通过模拟用户在美团APP上的操作,获取美团APP上的数据。这些数据可以包括美食、酒店、景点等信息。爬虫通过发送HTTP请求获取美团APP的网页源代码,然后使用解析库解析网页内容,从中提取出需要的数据。在爬取的过程中,数据可以存储到MongoDB等数据库中,以便后续的数据分析和处理。爬虫代码一般采用面向对象的方式进行代码架构,可以通过注释来解释代码的功能和实现方式。如果在学习Python的过程中遇到困难,可以加入相关的交流群,与其他学习者共同学习和解决问题。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [Python爬虫实战+数据分析+数据可视化(美团美食信息)](https://blog.csdn.net/qq_45821420/article/details/112769207)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] - *2* [午餐知道什么?用 Python 美团App评论选餐!](https://blog.csdn.net/fei347795790/article/details/98057287)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] - *3* [python进行数据增强](https://download.csdn.net/download/doyoboy/88278532)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_1"}}] [.reference_item style="max-width: 33.333333333333336%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值