小文件的弊端
1、HDFS中每个文件的元数据信息,包括位置大小分块信息等,都保存在NN内存中,在小文件数较多的情况下,会造成占用大量内存空间,导致NN性能下降;
2、在读取小文件多的目录时,MR会产生更多map数,造成GC频繁,浪费集群资源;
3、现在大数据平台文件总数超过30亿,单个NS文件数超过4亿的时候,读写性能会急剧下降,影响到所有读写该NS的任务性能;
4、如果队列限制最大map数是20000,任务读取的分区文件数超过20000,需要加参数进行读取时小文件合并,或否则任务map数超过限制数直接被查杀。
具体没有合并之前,查看一个分区的文件
在hive窗口下dfs -ls hdfs://ns1007/user/mart_sch/app.db/app_xz_jimi3_usp_gdm_m03_sold_item_sku_da/dt=2019-11-10
(dfs -ls hive表的位置)
发现dt=2019-11-10分区下面有两个小文件(小文件一般是小于128M)
合并生成的hive表数据一个分区只有一个文件
具体合并生成小文件的示例脚本
所以在生成hive表数据的时候,可以用 merge_flag =True,然后可以用 ,merge——type= 'mr' , merge_part_dir 指定需要合并的分区(也就是即将在sql中生成的partition)具体demo见下面的脚本