一、背景
- 安全扫描出hadoop2.8.3有安全漏洞,由于公司要求等保三级,我想到最便捷的方式就是升级版本。根据安全扫描报告决定升级到2.9.2。
- HDFS中有之前花了时间精力迁移的10多T数据,不想再重新迁移
二、解决方案
hadoop2.8.3的配置和文件不要改动,主要停止相关的进程。
1、 修改core-site.xml,将临时路径修改为hadoop2.8.3对应的路径
2、修改hdfs-site.xml ,将data和name的路径修改为hadoop2.8.3对应的路径
其他的配置文件都是按照正常的方式配置即可。
3、 修改环境变量
将原先配置的hadoop2.8.3环境变量,修改为hadoop2.9.2
并source /etc/profile
4、重新启动hadoop即可