【旅行三部曲】爬取商家评论(1)

前言

暑假到来,想去领略祖国的大好河山吗,但是却苦于不知道去哪或者不知道景区是否值得一去的小伙伴们可以看过来,读读接下来旅行文章系列带你去选择最好的旅游地点,你值得拥有哦。(基于飞猪旅行上的景点)

评价

既然要评判旅游地点的价值那自然是从评论上,评分上,价格上进行判断,所以现在我们先进入景区上抓包

在这里插入图片描述

发现评价全在这个接口返回的数据里,我们再看看它得到请求参数

在这里插入图片描述

这些请求参数通过对比其他商家的参数(这里就不贴图了)发现以下参数我们需要知道

aucNumId
_ksTS(时间戳前13位_后三位)
callback(jsonp+时间戳_后的数字+1)
jumpto(当前评价页数)

aucNumId这个参数暂时不知道什么意思,可以再抓包看看,另外要想全部评价的话还要它的评价总数

在这里插入图片描述
通过这个接口返回的数据刚好解决评价总数以及aucNumId参数问题,看看它的请求参数
在这里插入图片描述

通过对比其他商家的参数(这里就不贴图了)发现以下参数我们需要知道

_ksTS
callback
sid
ticketkindname(票的类型)
productname*(游玩项目)

sid这个参数也不知道是什么意思,可能大家会想在js里面找吧,但没必要,通过观察整个页面的url,发现它就在里面
在这里插入图片描述

价格和评分

可以从这个接口里去找,返回数据如下
在这里插入图片描述只要从数据里提取pricesellerScore参数即可

结尾

大致思路就是如上所述,以下就是代码实现

import re
import requests
import time
#时间戳处理
ks = time.time()
ksts = '%s_%s' %(int(ks*1000),str(ks)[-3:])
header = {
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/123.0.0.0 Safari/537.36'
}
def select_(url, productname, ticketkindname):
    res = requests.get('http://s.alitrip.com/scenic/item.htm?', headers=header,
                       params={
                           '_ksTS': ksts,
                           'callback': 'jsonp' + str(int(ksts[-3:]) + 1),
                           'format': 'json',
                           'sid': re.findall(r'sid=(\d+)', str(url), re.S)[0],
                           'ticketkindname': ticketkindname,
                           'productname': productname,
                           'jumpto': '1',
                           '_input_charset': 'utf-8'
                       })
    res = res.text.strip()
    return res

def s_all(res):
    return re.findall(r'"sellerScore":"(\d.*?)".*?:"(.*?)".*?:"(.*?)"', res, re.S)


def select_one(res):
    page_all = re.findall(r'"feedNum":(\d+)', res, re.S)[0]#评价总数
    numid = re.findall(r'"itemid":(.*?),', res, re.S)[0]#aucNumId参数
    s = s_all(res)[0]#评分 商家 价格
    print(s)
    for i in range(0, int(page_all) // 6 + 1):
            details = requests.get('http://s.alitrip.com/scenic/ajax/ticketFeed.htm?', headers=header
              , params={
                '_ksTS': ksts,
                'callback': 'jsonp' + str(int(ksts[-3:]) + 1),
                'format': 'json',
                'aucNumId': numid,
                'pagesize': '6',
                'jumpto': str(i + 1),
                '_input_charset': 'utf-8'
            })
            detail = re.findall(r'"raterUserNick":"(.*?)".*?:"(.*?)"', details.text, re.S)#用户 评价
            print(detail)
Selenium是一个流行的Web自动化测试工具,它也可以用于网页爬虫,通过模拟用户在浏览器的行为来抓取动态加载的内容,如去哪儿旅行等网站的评论。以下是使用Selenium爬取去哪儿旅行评论的基本步骤: 1. **安装必要的库**: 首先,需要安装Python的selenium库以及对应的WebDriver(比如ChromeDriver、FirefoxDriver)。可以使用pip安装: ``` pip install selenium webdriver_manager ``` 2. **配置WebDriver**: 根据你选择的浏览器下载并配置对应版本的WebDriver。例如,对于Chrome浏览器,下载ChromeDriver,并将路径添加到系统环境变量。 3. **编写脚本**: ```python from selenium import webdriver from selenium.webdriver.common.by import By from selenium.webdriver.support.ui import WebDriverWait from selenium.webdriver.support import expected_conditions as EC url = "https://qunar.com/" # 去哪儿旅行主页 driver = webdriver.Chrome() # 初始化浏览器实例 driver.get(url) # 访问页面 wait = WebDriverWait(driver, 10) # 设置等待时间 # 点击评论区域或者找到评论元素的CSS或XPath定位 comment_elements = wait.until( EC.presence_of_all_elements_located((By.XPATH, '//*[@id="commentList"]/div')) ) for element in comment_elements: # 提取评论内容、评分或其他相关信息 text = element.text rating = element.find_element(By.CLASS_NAME, "rating").text print(f"评论:{text}, 评分:{rating}") driver.quit() # 关闭浏览器 ``` 4. **注意事项**: - 不同网站的结构可能会有所不同,所以定位元素的方式(XPath或CSS选择器)需要根据实际HTML结构调整。 - 爬虫操作应遵守网站的robots.txt规则,并尊重用户体验,避免对服务器造成过大的负担。 - 可能需要处理反爬机制,如验证码、登录验证等,这通常需要更复杂的策略。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值