数据分析中常见的存储方式

点击上方“大话coding”,选择“星标”公众号

重磅干货,第一时间送达


大家好,我是小轩

这两天整理了在数据分析中常见的5种存储格式

内容比较多,只是简要整理,仅供大家学习和选择bc0e1c41f89457cb416a22e8d1278919.png

后面会对使用到的数据存储方式进行详细介绍7dacab52ade78ddb5617cee5b4d73bc1.png

目录
  • csv / txt / json

  • hdf

  • npy / npz / memmap

  • joblib

  • sequenceFile

  • Avro

  • Parquet

  • Orc

csv / txt / json 

TXT文本储存:

方便,但不利于检索

CSV(逗号分隔值)是一种纯文本文件格式,用于存储表格数据(例如电子表格或数据库)

文件的每一行都称为记录。

JSON文件储存:

   结构化程度非常高

对象和数组:

   一切都是对象

对象:

使用{}包裹起来的内容,
{key1:value1, key2:value2, …} 
类似于python中的字典

数组: 

使用[]包裹起来的内容
 [“java”, “javascript”, “vb”, …]

hdf 

HDF 是用于存储和分发科学数据的一种自我描述、多对象文件格式。

185a6d87aa95f14f069a375a330a9211.png

为什么创建HDF?

在不同的机器上生成和处理数据文件,各式各样的软件包被用来多种处理文件,同时也与其他使用不同机器和软件的人共享数据文件,这些文件也许包含不同类型的信息,这些文件也许概念上有关但在实质上却不同。HDF就是为了解决这些问题诞生的。

npy / npz / memmap

说到这三个,就必须了解NumPy

什么是NumPy呢?

00af695b132809c607cd7a9ed7e1fe83.png

NumPy是一个功能强大的Python库,可以帮助程序员轻松地进行数值计算。

numpy专用的二进制类型:npy和npz

如果将特征和数据处理为Numpy格式,则可以考虑存储为Numpy中的npy或npz格式。

存储类型:矩阵

读取速度:较快

使用场景:文件存储

npy文件:

以二进制的方式存储文件,在二进制文件第一行以文本形式保存了数据的元信息(ndim,dtype,shape等),可以用二进制工具查看内容。

np.load()和np.save()是读写磁盘数组数据的两个重要函数。使用时数组会以未压缩的原始二进制格式保存在扩展名为.npy的文件中。

import numpy as np


arr=np.arange(6)
np.save('wzx',arr)


print(np.load('wzx.npy'))

npz文件:

以压缩打包的方式存储文件,可以用压缩软件解压。

使用np.savez()函数可以将多个数组保存到同一个文件中。读取.npz文件时使用np.load()函数,返回的是一个类似于字典的对象,因此可以通过数组名作为关键字对多个数组进行访问。

import numpy as np


a = np.arange(5)
b = np.arange(6)
c = np.arange(7)
np.savez('wzx', a, b, c_array=c)  # c_array是数组c的命名


data = np.load('wzx.npz')


print('arr_0 : ', data['arr_0'])
print('arr_1 : ', data['arr_1'])
print('c_array : ', data['c_array'])

memmap

NumPy实现了一个类似于ndarray的memmap对象,它允许将大文件分成小段进行读写,而不是一次性将整个数组读入内存。

memmap也拥有跟普通数组一样的方法,因此,基本上只要是能用于ndarray的算法就也能用于memmap。

存储类型:矩阵

读取速度:适中

使用场景:大文件存储

import numpy as np
a = np.random.randint(0, 10, (3, 4), dtype=np.int32)
print(a)
a.tofile("haha.bin")
b = np.memmap("haha.bin", dtype=np.int32, shape=(3, 4))
print(b)
b[0, 0] = 100
del b  # 关闭文件,自动调用数组的finalize函数
b = np.memmap("haha.bin", dtype=np.int32, shape=(3, 4))
print(b)

joblib

Joblib是一组用于在Python中提供轻量级流水线的工具。

在训练模型后将模型保存的方法,以免下次重复训练。可以使用sklearn内部的joblib

joblib更适合大数据量的模型,且只能往硬盘存储,不能往字符串存储

from sklearn.externals import joblib
joblib.dump(clf,'filename.pkl')
clf=joblib.load('filename.pkl')
补充,也可以使用pickle
import pickle 
s=pickle.dumps(model) 
f=open("model.pkl",'w') 
f.write(s) 
f.close() 
f=open("model.pkl",'r') 
model=pickle.loads(f.read()) 
model.predict(X)

sequenceFile

什么是sequenceFile?

sequenceFile文件是Hadoop用来存储二进制形式的[Key,Value]对而设计的一种平面文件(Flat File)。

可以把SequenceFile当做是一个容器,把所有的文件打包到SequenceFile类中可以高效的对小文件进行存储和处理。

SequenceFile文件并不按照其存储的Key进行排序存储,SequenceFile的内部类Writer提供了append功能。

SequenceFile中的Key和Value可以是任意类型Writable或者是自定义Writable。

59fc00bf16ff13067252624a6e8979ea.png

相比于text格式的文件,SequenceFile可以存储key-value格式的消息,方便mapreduce引擎处理数据

支持record级别的压缩和block级别的压缩

文件是分块的,因此是可分割的。支持mapreduce的split输入

Avro

Avro的模式主要由JSON对象来表示,它可能会有一些特定的属性,用来描述某种类型(Type)的不同形式。

6db2c1a019e2130f468dd3af1b8b71d2.png

Avro支持八种基本类型(Primitive Type)和六种混合类型(Complex Type)。基本类型可以由JSON字符串来表示。每种不同的混合类型有不同的属性(Attribute)来定义,有些属性是必须的,有些是可选的,如果需要的话,可以用JSON数组来存放多个JSON对象定义。

Avro支持两种序列化编码方式:二进制编码和JSON编码。使用二进制编码会高效序列化,并且序列化后得到的结果会比较小;而JSON一般用于调试系统或是基于WEB的应用。

avro存储格式应用场景很多,比如hive、mongodb等

Parquet

Parquet是一个基于列式存储的文件格式,它将数据按列划分进行存储。Parquet官网上的文件格式介绍图:

050fe55fcd170e537904de70e53148dc.png

parquet应用场景也很多,比如hbase

Parquet 的存储模型主要由行组(Row Group)、列块(Column Chuck)、页(Page)组成。

行组,Row Group:Parquet 在水平方向上将数据划分为行组,默认行组大小与 HDFS Block 块大小对齐,Parquet 保证一个行组会被一个 Mapper 处理。

列块,Column Chunk:行组中每一列保存在一个列块中,一个列块具有相同的数据类型,不同的列块可以使用不同的压缩。

页,Page:Parquet 是页存储方式,每一个列块包含多个页,一个页是最小的编码的单位,同一列块的不同页可以使用不同的编码方式。

Orc

Orc也是一个列式存储格式,产生自Apache Hive,用于降低Hadoop数据存储空间和加速Hive查询速度。

55d1fcb40f1d9cb0bdf4261d163e7fc8.png

和Parquet的设计类似,也是将行分成多个组,然后组内按列存储,之后再对列进行分割。orc 的 Stripe 对应parquet的 Row Group,row Group 对应的是 parquet的 page

ORC文件是自描述的,它的元数据使用Protocol Buffers序列化

除了基本类型以外,还支持更复杂的数据结构,如LIST、STRUCT、MAP和UNION类型。

Parquet、Avro、ORC格式对比

相同点

1. 基于Hadoop文件系统优化出的存储结构

2. 提供高效的压缩
3. 二进制存储格式
4. 文件可分割,具有很强的伸缩性和并行处理能力
5. 使用schema进行自我描述
6. 属于线上格式,可以在Hadoop节点之间传递数据

不同点
1. 行式存储or列式存储:Parquet和ORC都以列的形式存储数据,而Avro以基于行的格式存储数据。就其本质而言,面向列的数据存储针对读取繁重的分析工作负载进行了优化,而基于行的数据库最适合于大量写入的事务性工作负载。
2. 压缩率:基于列的存储区Parquet和ORC提供的压缩率高于基于行的Avro格式。 
3. 可兼容的平台:ORC常用于Hive、Presto;Parquet常用于Impala、Drill、Spark、Arrow;Avro常用于Kafka、Druid。
4. 不同的案例和应用场景选择合适的存储格式,可以提升存储和读取的效率。

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值