hdfs或hive的snappy.parquet文件查看

1.安装python3环境

yum update

查询yum list python3

yum -y install python3

验证:
python3 -V

>>>>>Python 3.6.8

pip3 -V

>>>>>pip 9.0.3 from /usr/lib/python3.6/site-packages (python 3.6)

2.安装parquet-tools

pip install Cython
pip install parquet-tools

3.打开parquet文件

parquet-tools show *.snappy.parquet > parquet.log

parquet.log里就可以看到文件内容了

Hive中的Parquet文件格式可以使用Snappy压缩算法进行存储。在创建Parquet表时,可以使用TBLPROPERTIES参数指定压缩算法为Snappy。例如,可以使用以下语句创建Parquet表并指定Snappy压缩算法: ```sql CREATE TABLE table_name ... STORED AS PARQUET TBLPROPERTIES ('parquet.compression'='snappy'); ``` 另外,如果要将数据从MySQL导入到Hive中的Parquet表中,可以使用Sqoop工具。在Sqoop导入数据时,可以使用`--map-column-java`参数将MySQL表中的日期和时间字段映射为字符串类型。例如,可以使用以下命令导入数据: ```shell sqoop import ... --map-column-java date_field=String,datatime_field2=String ``` 这样,你就可以将MySQL数据导入到Hive中的Parquet表中,并使用Snappy压缩算法进行存储。\[1\]\[2\] #### 引用[.reference_title] - *1* *3* [Sqoop把mysql数据导入hivehdfs采用parquet+snappy存储](https://blog.csdn.net/Rudolf__/article/details/110533579)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [hive文件如何设置为Parquet并且开启Snappy压缩](https://blog.csdn.net/qq_39285950/article/details/130559993)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值