参看 hadoop 官网 http://hadoop.apache.org/docs/r3.0.0/
- 不再支持jdk1.7 改为1.8
- MR基于内存+io+磁盘,共同处理数据
- hdfs通过最近block计算,据说要比spark快十倍…希望如此吧
- 数据纠删码(EC) 通过在原始数据中加入新的校验数据,使得各个部分的数据产生关联性.在一定范围的数据出错情况下,通过纠删码技术都可以进行恢复.达到实现1份数据+0.5份冗余校验数据存储方式的效果,节省一半的存储空间(nb)
- Tasknative优化:为MapReduce增加了C/C++的map output collector实现(包括Spill,Sort和IFile等),通过作业级别参数调整就可切换到该实现上。对于shuffle密集型应用,其性能可提高约30%。(nb)
- 支持两个Namenode的节点故障
- 多个服务的默认端口变更
- 数据内节点平衡器,单个DataNode可管理多个磁盘。在正常的写操作过程中,磁盘将被均匀填充。但是,添加或替换磁盘可能会导致DataNode内部出现严重偏差。现有的HDFS平衡器无法处理这种情况,该平衡器自身涉及DN之间的内部偏移,而不涉及内部DN偏移。手动设置参数dfs.disk.balancer.enabled为true来开启
- 后续细节性的东西再补充.