【Python爬虫】酒店信息爬取(包括10000+酒店信息条目,80000+图片)


软工课程项目需要Booking酒店数据,需要酒店的信息和图片,最后一共获得2G+的的数据,信息包括10000+酒店的基本数据,和80000+的酒店图片,因为数据量较大(我怕吃牢饭🥲),项目里并没有放出来,感兴趣或者有需求的bro~可以照着代码自己爬一下😀(友情提示:数据量较大,一时半会爬不完)。

项目链接👉https://github.com/A-BigTree/hotel_Crawling🎉

如果可以,麻烦各位看官顺手点个star⭐~😊

如果文章对你有所帮助,可以点赞👍收藏⭐支持一下博主~😆


示例网址:

基于地域名称查询

基于dest_id查询


1 路径说明

|--config(配置文件夹)

|	|--backup(手动备份文件夹)

|	|--cookie.txt(cookie设置)

|	|--page_num.csv(城市相关信息记录)

|	|--user-agent.txt(用户客户端设置)

|--params_setting.py(相关参数设置)

|--crawling_process.py(爬取过程函数与主函数)

|--data(爬取数据存放)

|	|--backup(手动备份文件夹)

|	|--image(酒店封面图)

|	|	|--0.jpg

|	|	|--...

|	|--info(酒店详细信息)

|	|	|--image(酒店详细照片)

|	|	|	|--0(标号0-999的酒店照片)

|	|	|	|	|--0_0.jpg

|	|	|	|	|--0_1.jpg

|	|	|	|	|--...

|	|	|	|--1000(标号1000-1999的照片)

|	|	|	|	|--1000_0.jpg

|	|	|	|	|--...

|	|	|	|--...

|	|	|	|--10000(标号大于10000的酒店照片)

|	|	|	|	|--10000_0.jpg

|	|	|	|	|--...

|	|	|--desc.csv(酒店的详细描述)

|	|	|--image.csv(酒店图片URL链接)

|	|	|--image_error.csv(图片爬取失败日志)

|	|	|--info.csv(酒店详细信息记录)

|	|--hotels.csv(酒店具体页面链接记录)

|	|--image_error.csv(封面图爬取失败日志)

  • data数据文件夹没有放出来,需要自己新建不然会报错

2 配置文件

请求头配置

文件cookie.txtuser-agent.txt,可以通过在浏览器访问上面的示例网址,打开检查的网络模块可以看到具体的Cookie🍪和User-Agent设置,直接把对应的值复制过去即可,同时如果需要其他添加其他参数,可以在params_setting.py中的PARAMS_REQUEST修改:

PARAMS_REQUEST = {
    "User-Agent": None,
    "Cookie": None# add params here
}
"""Parameters of request for *Booking*"""

同时在config文件夹里添加 对应名称txt文件,在初始化的时候自动读取:

def init_params_request():
    """Init parameters using in request"""
    for key in PARAMS_REQUEST.keys():
        try:
            with open("config/" + key.lower() + ".txt", encoding='utf-8') as f:
                PARAMS_REQUEST[key] = f.readline().encode('utf-8').decode('latin1')
        except Exception as e:
            print(e)
            raise RuntimeError("Init process error.")

城市信息配置

城市配置的相关信息在 config/page_num.csv文件中,该csv文件的表头信息如下:

城市名称所含酒店网页数Booking设置的目的地ID标识

要问我ID标识怎么得到的(我才不说是一个省份一个省份试出来的呢🥲),咳咳所以不知道有没有时效性,大家且用且珍惜。

在整个程序运行开始之前,城市信息会自动初始化到params_setting.py中的CON_INFO中:

CITY_INFO = {
    "city_num": 0,
    "city_list": []
}
"""The dict of cities' information"""


def init_city_dict():
    """Init city dict using .csv file"""
    city_list = read_csv(file_name="config/page_num.csv")
    CITY_INFO['city_num'] = len(city_list)
    for info in city_list:
        CITY_INFO['city_list'].append({
            "name": info[0],
            "page_num": info[1],
            "dest_id": info[2]
        })

3 网址设置

请求基址

网址的请求基址为params_setting.py中的URL_BOOKING

URL_BOOKING = "https://www.booking.cn/searchresults.zh-cn.html"
"""URL using in query"""

所有的查询界面都是在此基址上进行请求参数的设置变化

基于城市名称的参数设置(不稳定不推荐)

PARAMS_URL_CITY_NAME = {
    "aid": 3976,  # 访客ID(maybe),具体情况需要更新
    "ss": None,  # 城市名称
    "lang": "zh-cn",  # Language
    "sb": 1,
    "src_elem": "sb",
    "src": "index",
    "group_adults": 2, # 要住两个成人
    "no_rooms": 1, # 需要几间房间
    "group_children": 0, # 居住孩子的数量
    "sb_travel_purpose": "leisure", # 订酒店的目的
    "offset": 0  # Page # 页面位移(一页一般为25个结果->(页面数-1)*25)
}
"""Parameters using city name in query URL"""

因为有点城市名称直接查询结果比较奇葩,不稳定,所以不推荐使用这种方法

基于城市ID的参数设置(推荐)

具体参数含义与上面的类似,具体城市的dest_id在城市信息字典中CITY_INFO

PARAMS_URL_CITY_ID = {
    "aid": 3976,
    "lang": "zh-cn",
    "sb": 1,
    "src_elem": "sb",
    "src": "searchresults",
    "dest_id": None,   # 城市ID
    "dest_type": "region",
    "group_adults": 2,
    "no_rooms": 1,
    "group_children": 0,
    "sb_travel_purpose": "leisure",
    "offset": 0  # Page
}
"""Parameters using city ID in query URL"""

4 解析路径

习惯使用XPath对网页进行解析,通用的请求解析函数如下:

def get_response(url: str, params: dict = None) -> Response:
    """Get `Response` Object using URL and Request parameters"""
    try:
        response = requests.get(url=url,
                                params=params,
                                headers=PARAMS_REQUEST)
    except Exception as e:
        print(e)
        raise RuntimeError("Request error.")
    return response


def xpath_analysis(response: Response, xpath_: Union[str, List[str]]) -> dict:
    """Analysis article from response using list of xpath"""
    xpath_data = etree.HTML(response.text)
    if isinstance(xpath_, str):
        xpath_ = [xpath_]
    results = dict()
    for xp in xpath_:
        result = xpath_data.xpath(xp)
        results[xp] = result
    return results

查询界面相关信息解析

# 城市酒店查询结果页数
XPATH_HOTEL_PAGE_NUM = "//*[@id='search_results_table']/div[2]/div/div/div[4]/div[2]/nav/div/div[2]/ol//li/button/text()"
"""The number of hotels' page"""

# 城市查询结果汇总
XPATH_HOTEL_PAGE_TITLE = "//*[@id='right']/div[1]/div/div/div/h1/text()"
"""The title in this page"""

# 该页结果酒店名称列表
XPATH_HOTEL_PAGE_NAME = "//*[@id='search_results_table']/div[2]/div/div/div[3]//div/div[1]/div[2]/div/div/div/div[1]/div/div[1]/div/h3/a/div[1]/text()"
"""The name of hotel in the page"""

# 该页酒店详细信息链接列表
XPATH_HOTEL_PAGE_HREF = "//*[@id='search_results_table']/div[2]/div/div/div[3]//div/div[1]/div[2]/div/div/div/div[1]/div/div[1]/div/h3/a/@href"
"""The link of hotel in the link"""

# 该页酒店封面图片链接列表
XPATH_HOTEL_PAGE_IMAGE = "//*[@id='search_results_table']/div[2]/div/div/div[3]//div/div[1]/div[1]/div/a/img/@src"
"""The image of hotel in the page"""

酒店详情页面解析

# 酒店星级
XPATH_HOTEL_STAR = "//*[@id='hp_hotel_name']/span/span[2]/div/span/div/span//span"
"""The star of hotel"""

# 酒店所在城市
XPATH_HOTEL_CITY = "//*[@id='breadcrumb']/ol//li/div/a/text()"
"""The city of the hotel"""

# 酒店名称
XPATH_HOTEL_NAME = "//*[@id='hp_hotel_name']/div/h2/text()"
"""The name of hotel"""

# 酒店详细地址
XPATH_HOTEL_ADDRESS = "//*[@id='showMap2']/span/text()"
"""The address of the hotel"""

# 酒店评分
XPATH_HOTEL_POINT = "//*[@id='js--hp-gallery-scorecard']/a/div/div/div/div[1]/text()"
"""The point of the hotel"""

# 酒店图片链接列表
XPATH_HOTEL_IMAGES = "//*[@id='hotel_main_content']//a/img/@src"
"""The images of the hotel"""

# 酒店详细描述
XPATH_HOTEL_DESC = "//*[@id='property_description_content']//p/text()"
"""The description of the hotel"""

5 运行过程

文字信息获取

  1. 获取查询页面所有酒店的详细页面链接和封面图片链接并标号存放到data/hotels.csv文件:
  • get_all_city_hotel()

data/hotels.csv表头含义:

名称详细页面链接省份offset封面图片链接标号
  1. 爬取所有酒店的详细页面,获取基本信息,详细描述存放到data/info/desc.csv中,图片链接放到data/info/images.csv中,其余信息放到data/info/info.csv中(所需时间很长很长,需要等待):
  • get_all_hotel_info():出现报错可以调整开始位置INDEX_START继续进行爬取;

data/info/desc.csv表头含义:

标号详细介绍

data/info/images.csv表头含义:

标号图片链接

data/info/info.csv表头含义:

标号名称省份地区详细地址评分图片数量星级

图片获取

图片获取通用函数如下:

ef get_image_from_url(image_url: str, file_name: str):
    """Get image from a image url"""
    try:
        response = get_response(image_url)
    except Exception as e:
        print(e)
        raise RuntimeError("Get image error")
    if response.status_code != 200:
        raise RuntimeError
    try:
        with open(file_name + ".jpg", "wb") as f:
            f.write(response.content)
    except Exception as e:
        print(e)
        raise RuntimeError("Write image error")
  1. 获取封面图片,将图片存放到data/image/文件夹中:
  • get_page_image()
  1. 获取酒店的所有图片,因数目较多(7w+)使用 多线程技术,每1000家酒店为一组放在一个文件夹里:
  • get_all_images():可在该函数中修改线程数量和批次(需调整图片存放文件夹)

项目链接👉https://github.com/A-BigTree/hotel_Crawling🎉

如果可以,麻烦各位看官顺手点个star⭐~😊

如果文章对你有所帮助,可以点赞👍收藏⭐支持一下博主~😆

评论 17
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

一棵___大树

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值