Python数据可视化:分析某宝商品数据,进行可视化处理

221 篇文章 46 订阅

本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,如有问题请及时联系我们以作处理。

以下文章来源于Python干货铺子 ,作者:不正经的kimol君

 

一、模拟登陆

需要做个统计分析,有没有办法搜集一下淘宝的商品信息呀?

 

在搜索栏里填好关键词:“显卡”,小手轻快敲击着回车键(小样~看我地)。

心情愉悦的我满怀期待地等待着,等待着那满屏的商品信息,然而苦苦的等待换来的却是302,于是我意外地来到了登陆界面:

 

情况基本就是这么个情况了...

随后我查了一下,随着淘宝反爬手段的不断加强,很多小伙伴应该已经发现,淘宝搜索功能是需要用户登陆的!

关于淘宝模拟登陆,有大大已经利用requests成功模拟登陆。然而,这个方法得先分析淘宝登陆的各种请求,并模拟生成相应的参数,相对来说有一定的难度。于是我决定换一种思路,通过selenium+二维码的方式:

# 打开图片
def Openimg(img_location):
    img=Image.open(img_location)
    img.show()

# 登陆获取cookies
def Login():  
    driver = webdriver.PhantomJS() 
    driver.get('https://login.taobao.com/member/login.jhtml')
    try:
        driver.find_element_by_xpath('//*[@id="login"]/div[1]/i').click()
    except:
        pass
    time.sleep(3)
    # 执行JS获得canvas的二维码
    JS = 'return document.getElementsByTagName("canvas")[0].toDataURL("image/png");'
    im_info = driver.execute_script(JS) # 执行JS获取图片信息
    im_base64 = im_info.split(',')[1]  #拿到base64编码的图片信息
    im_bytes = base64.b64decode(im_base64)  #转为bytes类型
    time.sleep(2)
    with open('./login.png','wb') as f:
        f.write(im_bytes)
        f.close()
    t = threading.Thread(target=Openimg,args=('./login.png',))
    t.start()
    print("Logining...Please sweep the code!\n")
    while(True):
        c = driver.get_cookies()
        if len(c) > 20:   #登陆成功获取到cookies
            cookies = {}
            for i in range(len(c)):
                cookies[c[i]['name']] = c[i]['value']
            driver.close()
            print("Login in successfully!\n")
            return cookies
        time.sleep(1)

通过webdriver打开淘宝登陆界面,把二维码下载到本地并打开等待用户扫码(相应的元素大家通过浏览器的F12元素分析很容易就能找出)。待扫码成功后,将webdriver里的cookies转为DICT形式,并返回。

这里是为了后续requests爬取信息的时候使用

二、爬取商品信息

当我拿到cookies之后,爬取商品信息便是信手拈来。(小样,我来啦~)

1. 定义相关参数

定义相应的请求地址,请求头等等:

# 定义参数
headers = {'Host':'s.taobao.com',
           'User-Agent':'Mozilla/5.0 (Windows NT 6.3; Win64; x64; rv:63.0) Gecko/20100101 Firefox/63.0',
           'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
           'Accept-Language':'zh-CN,zh;q=0.8,zh-TW;q=0.7,zh-HK;q=0.5,en-US;q=0.3,en;q=0.2',
           'Accept-Encoding':'gzip, deflate, br',
           'Connection':'keep-alive'}
list_url = 'http://s.taobao.com/search?q=%(key)s&ie=utf8&s=%(page)d'

2. 分析并定义正则

当请求得到HTML页面后,想要得到我们想要的数据就必须得对其进行提取,这里我选择了正则的方式。通过查看页面源码:

 

偷懒的我上面只标志了两个数据,不过其他也是类似的,于是得到以下正则:

# 正则模式
p_title = '"raw_title":"(.*?)"'       #标题
p_location = '"item_loc":"(.*?)"'    #销售地
p_sale = '"view_sales":"(.*?)人付款"' #销售量
p_comment = '"comment_count":"(.*?)"'#评论数
p_price = '"view_price":"(.*?)"'     #销售价格
p_nid = '"nid":"(.*?)"'              #商品唯一ID
p_img = '"pic_url":"(.*?)"'          #图片URL

(ps.聪明的小伙伴应该已经发现了,其实商品信息是被保存在了g_page_config变量里面,所以我们也可以先提取这个变量(一个字典),然后再读取数据,亦可!)

3. 数据爬取

万事俱备,只欠东风。于是,东风踏着它轻快的脚步来了:

# 数据爬取
key = input('请输入关键字:') # 商品的关键词
N = 20 # 爬取的页数 
data = []
cookies = Login()
for i in range(N):
    try:
        page = i*44
        url = list_url%{'key':key,'page':page}
        res = requests.get(url,headers=headers,cookies=cookies)
        html = res.text
        title = re.findall(p_title,html)
        location = re.findall(p_location,html)
        sale = re.findall(p_sale,html)
        comment = re.findall(p_comment,html)
        price = re.findall(p_price,html)
        nid = re.findall(p_nid,html)
        img = re.findall(p_img,html)
        for j in range(len(title)):
            data.append([title[j],location[j],sale[j],comment[j],price[j],nid[j],img[j]])
        print('-------Page%s complete!--------\n\n'%(i+1))
        time.sleep(3)
    except:
        pass
data = pd.DataFrame(data,columns=['title','location','sale','comment','price','nid','img'])
data.to_csv('%s.csv'%key,encoding='utf-8',index=False)

上面代码爬取了20页商品信息,并将其保存在本地的csv文件中,效果是这样的:

 

三、简单数据分析

有了数据,放着岂不是浪费,我可是社会主义好青年,怎能做这种事?那么,就让我们来简简单单分析一下这些数据:

(当然,数据量小,仅供娱乐参考)

1.导入库

# 导入相关库
import jieba
import operator
import pandas as pd
from wordcloud import WordCloud
from matplotlib import pyplot as plt

相应库的安装方法(其实基本都能通过pip解决):

  • jieba
  • pandas
  • wordcloud
  • matplotlib

2.中文显示

# matplotlib中文显示
plt.rcParams['font.family'] = ['sans-serif']
plt.rcParams['font.sans-serif'] = ['SimHei']

不设置可能出现中文乱码等闹心的情况哦~

3.读取数据

# 读取数据
key = '显卡'
data = pd.read_csv('%s.csv'%key,encoding='utf-8',engine='python')

4.分析价格分布

# 价格分布
plt.figure(figsize=(16,9))
plt.hist(data['price'],bins=20,alpha=0.6)
plt.title('价格频率分布直方图')
plt.xlabel('价格')
plt.ylabel('频数')
plt.savefig('价格分布.png')

价格频率分布直方图:

 

5.分析销售地分布

# 销售地分布
group_data = list(data.groupby('location'))
loc_num = {}
for i in range(len(group_data)):
    loc_num[group_data[i][0]] = len(group_data[i][1])
plt.figure(figsize=(19,9))
plt.title('销售地')
plt.scatter(list(loc_num.keys())[:20],list(loc_num.values())[:20],color='r')
plt.plot(list(loc_num.keys())[:20],list(loc_num.values())[:20])
plt.savefig('销售地.png')
sorted_loc_num = sorted(loc_num.items(), key=operator.itemgetter(1),reverse=True)#排序
loc_num_10 = sorted_loc_num[:10]  #取前10
loc_10 = []
num_10 = []
for i in range(10):
    loc_10.append(loc_num_10[i][0])
    num_10.append(loc_num_10[i][1])
plt.figure(figsize=(16,9))
plt.title('销售地TOP10')
plt.bar(loc_10,num_10,facecolor = 'lightskyblue',edgecolor = 'white')
plt.savefig('销售地TOP10.png')

销售地分布:

 

销售地TOP10:

 

6.词云分析

# 制作词云
content = ''
for i in range(len(data)):
    content += data['title'][i]
wl = jieba.cut(content,cut_all=True)
wl_space_split = ' '.join(wl)
wc = WordCloud('simhei.ttf',
               background_color='white', # 背景颜色
               width=1000,
               height=600,).generate(wl_space_split)
wc.to_file('%s.png'%key)

淘宝商品”显卡“的词云:

### 回答1: Python数据分析可视化是指使用Python语言进行数据收集、清理、转换、统计和可视化的过程。常用的Python数据分析可视化工具包括pandas、numpy、matplotlib、seaborn等。通过这些工具包,可以对结构化和非结构化数据进行处理可视化,从而发现数据中的规律和趋势,做出更准确的数据分析和业务决策。 ### 回答2: Python数据分析可视化是使用Python编程语言进行数据处理分析的过程。Python是一种通用的编程语言,它具有易学易用和强大的数据处理能力,因此被广泛应用于数据分析可视化。 在数据分析方面,Python提供了许多强大的数据处理和统计分析库,如NumPy、Pandas和SciPy等。这些库可以用于加载、清洗、分析处理各种类型的数据。NumPy提供了高效的多维数组和矩阵操作,Pandas则提供了灵活的数据结构和数据分析工具,SciPy则提供了常用的科学计算和统计函数。这些库的组合使得Python变得特别适合用于数据处理数据分析。 此外,在数据可视化方面,Python也有很多流行的库,如Matplotlib、Seaborn和Plotly。这些库提供了绘制各种类型图表和可视化效果的功能,如折线图、柱状图、散点图、热图等。通过这些库,我们可以将数据可视化,展示数据的趋势、关联以及其他有用的信息。 Python数据分析可视化的流程通常包括以下几个步骤:数据准备,如加载和清洗数据数据分析,如统计描述、数据挖掘和机器学习算法;数据可视化,如绘制图表和可视化效果;结果解释和报告,如解读数据结果和撰写报告。 总的来说,Python数据分析可视化提供了一个强大的工具集合,使得我们可以通过编程的方式更好地理解和分析数据。无论是在科学研究、商业分析还是其他领域,Python都是一个强大且受欢迎的选择。 ### 回答3: Python数据分析可视化是利用Python编程语言进行数据处理分析可视化的一种方法。Python以其简洁、易读且功能强大的特点,成为了数据科学领域的首选语言。 在Python中,有许多强大的数据处理分析库,如NumPy、Pandas和SciPy。NumPy提供了高性能的多维数组对象,以及用于数组操作的工具。Pandas提供了数据结构和数据分析工具,简化了数据处理的流程。而SciPy则提供了许多科学计算和统计分析的功能。 Python可视化库也非常丰富,其中最著名的就是Matplotlib和Seaborn。Matplotlib提供了各种绘图功能,包括线图、散点图、柱状图等。Seaborn则提供了一些更高级的统计可视化工具,例如热力图和分类散点图。 除了以上提到的库,还有一些其他数据分析可视化工具,如Scikit-learn用于机器学习、iPython用于交互式计算和Jupyter Notebook用于数据报告等。 Python数据分析可视化的主要步骤包括数据收集与清洗、数据处理分析数据可视化以及结果报告。通过Python的强大库和工具,可以用较少的代码完成复杂的数据分析可视化任务,从而更好地理解和展示数据。 总而言之,Python数据分析可视化是一种用Python进行数据处理分析可视化的方法。通过使用各种强大的库和工具,可以轻松地进行数据分析可视化,并从中获得有价值的信息。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值