1.为啥使用了lzo仍然不能分片
在hdfs.xml中,有这样的配置
这个配置设置了块大小为128M,在mapreduce的过程中,inputformat执行完毕之后,默认就会根据该配置,对文件进行切块,进而根据块的数量来决定map task的数量。
除了textFile之外,压缩格式中的lzo,bz2也可以进行文件的切块操作。
但是从一般情况,lzo本身是无法进行切块的——如果直接将大于128M的data.lzo文件作为map的输入时,默认blocksize为128M的情况下,number of splits的值仍然为1,即data.lzo仍然被当为一块直接输入map task。
所以为了实现lzo的切块,需要为lzo的压缩文件生成一个索引文件data.lzo.index。
2.如何生成lzo文件
lzop -v data,就会生成data.lzo文件
3.给data.lzo配置索引文件
需要准备hadoop-lzo-0.4.21-SNAPSHOT.jar,如果没有的话就需要编译生成一下。
3.1 安装编译所需文件
yum -y install lzo-devel zlib-devel gcc autoconf automake libtool
3.2 下载,解压
wget https://github.com/twitter/hadoop-lzo/archive/master.zip
3.3 修改pom.xml,将其中的hadoop.current.version改为自己的hadoop版本
3.4 编译
在hadoop-lzo-master/下执行mvn clean package -Dmaven.test.skip=true进行编译,编译好的jar包在hadoop-lzo-master/target/
3.5 修改hadoop的配置文件
3.6 重启hadoop集群,将data.lzo丢到hdfs里。
3.7 创建index文件
3.8 执行自己的mapreduce程序的时候,输入路径为/input而非/input/data.lzo,这样就能实现lzo的分片操作了