1 用ant jar命令重新编译了hadoop源码之后会生成build文件夹,hadoop重新启动的时候主节点namenode进程会根据build中的版本启动
导致从节点的datanode进程与主节点的版本不一致
2 必须关闭了hadoop集群再格式化主节点,否则会报错,dfs-name已经被锁定,无法再次锁定
3 格式化的时候,如果secondary与namenode在一台机器上,要备份一下secondary的数据,否则会被一起格式化没了
4 hadoop.tmp.dir可以看做是一个父亲目录,其他的很多目录默认会存放在此目录下
比如fs.checkpoint.dir(镜像存储目录,默认在{hadoop.tmp.dir}/dfs/namesecondary),以及dfs.name.dir,dfs.data.dir
5 centos上当前目录的数据发生变化的时候,文件清除了再重新写到该目录的时候,不会立马显示出来,需要回退到其它目录再进来,才能够看到
新进来的文件,但是删除之后会立马显示出来。
6 namenode和secondary分离的话,要修改hdfs-site.xml
增加:
dfs.http.address namenodeIP:50070
dfs.secondary.http.address secondnamenodeIP:50090
7将hadoop指定目录下所有内容保存为一个文件,同时down至本地
hadoop dfs –getmerge 源文件目录 本地目录
8 将正在运行的hadoop作业kill掉
hadoop job –kill [job-id]
导致从节点的datanode进程与主节点的版本不一致
2 必须关闭了hadoop集群再格式化主节点,否则会报错,dfs-name已经被锁定,无法再次锁定
3 格式化的时候,如果secondary与namenode在一台机器上,要备份一下secondary的数据,否则会被一起格式化没了
4 hadoop.tmp.dir可以看做是一个父亲目录,其他的很多目录默认会存放在此目录下
比如fs.checkpoint.dir(镜像存储目录,默认在{hadoop.tmp.dir}/dfs/namesecondary),以及dfs.name.dir,dfs.data.dir
5 centos上当前目录的数据发生变化的时候,文件清除了再重新写到该目录的时候,不会立马显示出来,需要回退到其它目录再进来,才能够看到
新进来的文件,但是删除之后会立马显示出来。
6 namenode和secondary分离的话,要修改hdfs-site.xml
增加:
dfs.http.address namenodeIP:50070
dfs.secondary.http.address secondnamenodeIP:50090
7将hadoop指定目录下所有内容保存为一个文件,同时down至本地
hadoop dfs –getmerge 源文件目录 本地目录
8 将正在运行的hadoop作业kill掉
hadoop job –kill [job-id]