Python数据分析 I 全国旅游景点分析案例,哪里好玩一目了然

评分最高的五十个免费景点

free_scenic_50 = China_scenic_free.sort_values(‘spot-comment’, ascending=False).head(50)

评分最高的的免费景点类型

Hot_kind_free = China_scenic_free.groupby([‘spot-label1’]).mean().sort_values(‘spot-comment’, ascending=False).head(15)

再将这些分析出的数据用.to_csv()导出,用PPT画图(自己的数据可视化做得很丑。。。。)

。。。)

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

酒店数据

将五个城市酒店数据组合,再进行分析如下

All_Hotel = pd.concat([Changsha_Hotel,

Zhangjiajie_Hotel,

Hangzhou_Hotel,

Suzhou_Hotel,

Changzhou_Hotel],

axis=0, sort=False).dropna().reset_index().drop(columns=‘index’)

kind_price = All_Hotel.groupby([‘地址’, ‘poi-type’]).mean()[‘poi-price’]

把‘kind_price’导出画图

在这里插入图片描述

机器学习


假设去某个景点旅游,需要考虑出行方式、酒店住宿、门票价格等因素,由此可以大概计算出一个数值来表示该趟旅游“值不值 ”(爬取到的数据中,关于免费景点只有评分一条可以评定其价值,不太具有真实意义,所以不取免费景点)

从景点数据随机选取一个,酒店数据随机选取一个,出行方式随机选取一种。(由此来组合成一行,模拟成一个人选择某种方式去了某地游玩了某个景点又选择了某个酒店)

由于数据的不完整,所以这里主要从“钱花得最少,去的景点评分最高”这样的角度来判断“值不值”。

“值不值”的恒定标准为:

在这里插入图片描述

代数 意义

在这里插入图片描述

PS:这里本应该每个值附上自己的权重,由于时间关系,我仅将他们(0,1)规格化了,这样就是1:1:1:1的关系,以后有时间在调整其权重问题。

再由Score值来分类:

在这里插入图片描述

代码实现


先从全国景点数据中,找到五个例子城市的景点数据。

(方法五个都一样,这里只展示以张家界为例)

def find_zhangjiajie(i):

if ‘张家界’ in i:

return True

else:

return False

zhangjiajie_scenic = China_scenic_charge[China_scenic_charge[‘spot-info1’].apply(find_zhangjiajie)].reset_index().drop(columns=‘index’)

导出后画图如下

在这里插入图片描述

接下来是获取出行数据,由于机票价格波动太大,并且某些城市还没有普火,这里主要是取平均值,zhangjiajie_traffic数据大概这个样子

在这里插入图片描述

现在,对于张家界的景点、出行、酒店数据已经准备完毕

左右拼接在一起,创建随机数据集 zhangjiajie_travel:

def price_02(i):

i = (i - zhangjiajie_travel[‘价格’].min()) / (zhangjiajie_travel[‘价格’].max() - zhangjiajie_travel[‘价格’].min())

return i

def comment_02(i):

i = (i - zhangjiajie_travel[‘spot-comment’].min()) / (

zhangjiajie_travel[‘spot-comment’].max() - zhangjiajie_travel[‘spot-comment’].min())

return i

def hotel_02(i):

i = (i - zhangjiajie_travel[‘poi-price’].min()) / (

zhangjiajie_travel[‘poi-price’].max() - zhangjiajie_travel[‘poi-price’].min())

return i

def traffic_02(i):

i = (i - zhangjiajie_travel[‘出行价格’].min()) / (zhangjiajie_travel[‘出行价格’].max() - zhangjiajie_travel[‘出行价格’].min())

return i

每个表随机采样一万行

zhangjiajie_scenic_test = zhangjiajie_scenic.sample(n=10000, axis=0, random_state=1, replace=True).reset_index().drop(

columns=‘index’)

zhangjiajie_hotel_test = zhangjiajie_hotel.sample(n=10000, axis=0, random_state=1, replace=True).reset_index().drop(

columns=‘index’)

zhangjiajie_traffic_test = zhangjiajie_traffic.sample(n=10000, axis=0, random_state=1, replace=True).reset_index().drop(

columns=‘index’)

合在一起成为张家界的“假旅游数据集”

zhangjiajie_travel = pd.concat([zhangjiajie_scenic_test, zhangjiajie_hotel_test, zhangjiajie_traffic_test],

sort=False, axis=1).drop(columns=‘Unnamed: 0’)

重点:把五个城市的测试数据集建立完毕后,上下拼接在一起成为总的数据集(五万条),再将Score值算出,并对其打上标签

import pandas as pd

import numpy as np

def Score_change(i):

if i <= np.percentile(lfw_Happy_travel[‘Score’], (25)):

return 0

elif i >= np.percentile(lfw_Happy_travel[‘Score’], (25)) and i <= np.percentile(lfw_Happy_travel[‘Score’], (50)):

return 1

elif i >= np.percentile(lfw_Happy_travel[‘Score’], (50)) and i <= np.percentile(lfw_Happy_travel[‘Score’], (75)):

return 2

elif i >= np.percentile(lfw_Happy_travel[‘Score’], (75)):

return 3

lfw_Happy_travel = pd.concat([changsha_travel,

zhangjiajie_travel,

suzhou_travel,

hangzhou_travel,

changzhou_travel],

axis=0, sort=False).dropna()

lfw_Happy_travel[‘Score’] = lfw_Happy_travel[‘spot-comment’] / (lfw_Happy_travel[‘价格’] * lfw_Happy_travel[‘poi-price’] * lfw_Happy_travel[‘出行价格’])

lfw_Happy_travel[‘Score’] = lfw_Happy_travel[‘Score’].apply(Score_change)

最后,利用SVM支持向量机来对整个数据集进行评分,以总花费和景点评分作为属性,Score值作为标签

from sklearn import model_selection

from sklearn import svm

lfw_Happy_travel_num = pd.DataFrame(

{‘景点评分’: lfw_Happy_travel[‘spot-comment’],

‘花费’: lfw_Happy_travel[‘cost’],

‘Score’: lfw_Happy_travel[‘Score’]

})

x = lfw_Happy_travel_num.iloc[:, 0:2].values.tolist()

y = lfw_Happy_travel_num.iloc[:, -1].tolist()

x_train, x_test, y_train, y_test = model_selection.train_test_split(x, y, random_state=1, test_size=0.3)

clf = svm.SVC(C=0.1, kernel=‘linear’, decision_function_shape=‘ovr’)

clf = svm.SVC(kernel=‘rbf’, gamma=0.1, decision_function_shape=‘ovo’, C=0.8)

clf.fit(x_train, y_train)

print(“SVM-输出训练集的准确率为:”, clf.score(x_train, y_train))

print(“SVM-输出测试集的准确率为:”, clf.score(x_test, y_test))

这里我选择的核函数为线性核和高斯核,还在调参研究哪个准确率更高…

自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。

深知大多数Python工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!

因此收集整理了一份《2024年Python开发全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。
img
img



既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上Python开发知识点,真正体系化!

由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新

如果你觉得这些内容对你有帮助,可以添加V获取:vip1024c (备注Python)
img

在这里插入图片描述

感谢每一个认真阅读我文章的人,看着粉丝一路的上涨和关注,礼尚往来总是要有的:

① 2000多本Python电子书(主流和经典的书籍应该都有了)

② Python标准库资料(最全中文版)

③ 项目源码(四五十个有趣且经典的练手项目及源码)

④ Python基础入门、爬虫、web开发、大数据分析方面的视频(适合小白学习)

⑤ Python学习路线图(告别不入流的学习)

一个人可以走的很快,但一群人才能走的更远。如果你从事以下工作或对以下感兴趣,欢迎戳这里加入程序员的圈子,让我们一起学习成长!

AI人工智能、Android移动开发、AIGC大模型、C C#、Go语言、Java、Linux运维、云计算、MySQL、PMP、网络安全、Python爬虫、UE5、UI设计、Unity3D、Web前端开发、产品经理、车载开发、大数据、鸿蒙、计算机网络、嵌入式物联网、软件测试、数据结构与算法、音视频开发、Flutter、IOS开发、PHP开发、.NET、安卓逆向、云计算

频(适合小白学习)

⑤ Python学习路线图(告别不入流的学习)

一个人可以走的很快,但一群人才能走的更远。如果你从事以下工作或对以下感兴趣,欢迎戳这里加入程序员的圈子,让我们一起学习成长!

AI人工智能、Android移动开发、AIGC大模型、C C#、Go语言、Java、Linux运维、云计算、MySQL、PMP、网络安全、Python爬虫、UE5、UI设计、Unity3D、Web前端开发、产品经理、车载开发、大数据、鸿蒙、计算机网络、嵌入式物联网、软件测试、数据结构与算法、音视频开发、Flutter、IOS开发、PHP开发、.NET、安卓逆向、云计算

  • 18
    点赞
  • 34
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值