1、集群启动后,可以查看目录,但是上传文件时报错,打开web页面可看到namenode正处于safemode状态,怎么处理?
解释:
safemode是namenode的一种状态(active/standby/safemode安全模式)
namenode进入安全模式的原理:
a、namenode发现集群中的block丢失率达到一定比例时(0.01%),namenode就会进入安全模式,在安全模式下,客户端不能对任何数据进行操作,只能查看元数据信息(比如ls/mkdir)
b、如何退出安全模式?
找到问题所在,进行修复(比如修复宕机的datanode)
或者可以手动强行退出安全模式(没有真正解决问题): hdfs namenode–safemode leave
c、在hdfs集群正常冷启动时,namenode也会在safemode状态下维持相当长的一段时间,此时你不需要去理会,等待它自动退出安全模式即可
(原理:
namenode的内存元数据中,包含文件路径、副本数、blockid,及每一个block所在datanode的信息,而fsimage中,不包含block所在的datanode信息,那么,当namenode冷启动时,此时内存中的元数据只能从fsimage中加载而来,从而就没有block所在的datanode信息——>就会导致namenode认为所有的block都已经丢失——>进入安全模式——>datanode启动后,会定期向namenode汇报自身所持有的blockid信息,——>随着datanode陆续启动,从而陆续汇报block信息,namenode就会将内存元数据中的block所在datanode信息补全更新——>找到了所有block的位置,从而自动退出安全模式)
2、Namenode服务器的磁盘故障导致namenode宕机,如何挽救集群及数据?
3、Namenode是否可以有多个?namenode内存要配置多大?namenode跟集群数据存储能力有关系吗?
4、文件的blocksize究竟调大好还是调小好?–结合mapreduce
NAMENODE职责:
负责客户端请求的响应
元数据的管理(查询,修改)
元数据管理:
namenode对数据的管理采用了三种存储形式:
内存元数据(NameSystem)
磁盘元数据镜像文件
数据操作日志文件(可通过日志运算出元数据)
元数据存储机制:
A、内存中有一份完整的元数据(内存meta data)
B、磁盘有一个“准完整”的元数据镜像(fsimage)文件(在namenode的工作目录中)
C、用于衔接内存metadata和持久化元数据镜像fsimage之间的操作日志(edits文件)
注:当客户端对hdfs中的文件进行新增或者修改操作,操作记录首先被记入edits日志文件中,当客户端操作成功后,相应的元数据会更新到内存meta.data中
元数据手动查看:
可以通过hdfs的一个工具来查看edits中的信息
bin/hdfs oev -i edits -o edits.xml
bin/hdfs oiv -i fsimage_0000000000000000087 -p XML -o fsimage.xml
元数据的checkpoint:
每隔一段时间,会由secondarynamenode将namenode上积累的所有edits和一个最新的fsimage下载到本地,并加载到内存进行merge(这个过程称为checkpoint)
Checkpoint操作的触发条件配置参数
dfs.namenode.checkpoint.check.period=60 #检查触发条件是否满足的频率,60秒
dfs.namenode.checkpoint.dir=file://KaTeX parse error: Expected 'EOF', got '#' at position 36: …/namesecondary #̲以上两个参数做checkpoi…{dfs.namenode.checkpoint.dir}
dfs.namenode.checkpoint.max-retries=3 #最大重试次数
dfs.namenode.checkpoint.period=3600 #两次checkpoint之间的时间间隔3600秒
dfs.namenode.checkpoint.txns=1000000 #两次checkpoint之间最大的操作记录
checkpoint的附带作用
namenode和secondary namenode的工作目录存储结构完全相同,所以,当namenode故障退出需要重新恢复时,可以从secondary namenode的工作目录中将fsimage拷贝到namenode的工作目录,以恢复namenode的元数据
元数据目录说明:
在第一次部署好Hadoop集群的时候,我们需要在NameNode(NN)节点上格式化磁盘:
H
A
D
O
O
P
H
O
M
E
/
b
i
n
/
h
d
f
s
n
a
m
e
n
o
d
e
–
f
o
r
m
a
t
格
式
化
完
成
之
后
,
将
会
在
HADOOP_HOME/bin/hdfs namenode –format 格式化完成之后,将会在
HADOOPHOME/bin/hdfsnamenode–format格式化完成之后,将会在dfs.namenode.name.dir/current目录下如下的文件结构
current/
|-- VERSION
|-- edits_*
|-- fsimage_0000000000008547077
|-- fsimage_0000000000008547077.md5
`-- seen_txid
其中的dfs.name.dir是在hdfs-site.xml文件中配置的,默认值如下:
dfs.name.dir
file://${hadoop.tmp.dir}/dfs/name
hadoop.tmp.dir是在core-site.xml中配置的,默认值如下
hadoop.tmp.dir
/tmp/hadoop-
u
s
e
r
.
n
a
m
e
<
/
v
a
l
u
e
>
<
d
e
s
c
r
i
p
t
i
o
n
>
A
b
a
s
e
f
o
r
o
t
h
e
r
t
e
m
p
o
r
a
r
y
d
i
r
e
c
t
o
r
i
e
s
.
<
/
d
e
s
c
r
i
p
t
i
o
n
>
<
/
p
r
o
p
e
r
t
y
>
d
f
s
.
n
a
m
e
n
o
d
e
.
n
a
m
e
.
d
i
r
属
性
可
以
配
置
多
个
目
录
,
如
/
d
a
t
a
1
/
d
f
s
/
n
a
m
e
,
/
d
a
t
a
2
/
d
f
s
/
n
a
m
e
,
/
d
a
t
a
3
/
d
f
s
/
n
a
m
e
,
.
.
.
.
。
各
个
目
录
存
储
的
文
件
结
构
和
内
容
都
完
全
一
样
,
相
当
于
备
份
,
这
样
做
的
好
处
是
当
其
中
一
个
目
录
损
坏
了
,
也
不
会
影
响
到
H
a
d
o
o
p
的
元
数
据
,
特
别
是
当
其
中
一
个
目
录
是
N
F
S
(
网
络
文
件
系
统
N
e
t
w
o
r
k
F
i
l
e
S
y
s
t
e
m
,
N
F
S
)
之
上
,
即
使
你
这
台
机
器
损
坏
了
,
元
数
据
也
得
到
保
存
。
下
面
对
{user.name}</value> <description>A base for other temporary directories.</description> </property> dfs.namenode.name.dir属性可以配置多个目录, 如/data1/dfs/name,/data2/dfs/name,/data3/dfs/name,....。各个目录存储的文件结构和内容都完全一样,相当于备份,这样做的好处是当其中一个目录损坏了,也不会影响到Hadoop的元数据,特别是当其中一个目录是NFS(网络文件系统Network FileSystem,NFS)之上,即使你这台机器损坏了,元数据也得到保存。 下面对
user.name</value><description>Abaseforothertemporarydirectories.</description></property>dfs.namenode.name.dir属性可以配置多个目录,如/data1/dfs/name,/data2/dfs/name,/data3/dfs/name,....。各个目录存储的文件结构和内容都完全一样,相当于备份,这样做的好处是当其中一个目录损坏了,也不会影响到Hadoop的元数据,特别是当其中一个目录是NFS(网络文件系统NetworkFileSystem,NFS)之上,即使你这台机器损坏了,元数据也得到保存。下面对dfs.namenode.name.dir/current/目录下的文件进行解释。
1、VERSION文件是Java属性文件,内容大致如下:
#Fri Nov 15 19:47:46 CST 2013
namespaceID=934548976
clusterID=CID-cdff7d73-93cd-4783-9399-0a22e6dce196
cTime=0
storageType=NAME_NODE
blockpoolID=BP-893790215-192.168.24.72-1383809616115
layoutVersion=-47
其中
(1)、namespaceID是文件系统的唯一标识符,在文件系统首次格式化之后生成的;
(2)、storageType说明这个文件存储的是什么进程的数据结构信息(如果是DataNode,storageType=DATA_NODE);
(3)、cTime表示NameNode存储时间的创建时间,由于我的NameNode没有更新过,所以这里的记录值为0,以后对NameNode升级之后,cTime将会记录更新时间戳;
(4)、layoutVersion表示HDFS永久性数据结构的版本信息, 只要数据结构变更,版本号也要递减,此时的HDFS也需要升级,否则磁盘仍旧是使用旧版本的数据结构,这会导致新版本的NameNode无法使用;
(5)、clusterID是系统生成或手动指定的集群ID,在-clusterid选项中可以使用它;如下说明
a、使用如下命令格式化一个Namenode:
$HADOOP_HOME/bin/hdfs namenode -format [-clusterId<cluster_id>]
选择一个唯一的cluster_id,并且这个cluster_id不能与环境中其他集群有冲突。如果没有提供cluster_id,则会自动生成一个唯一的ClusterID。
b、使用如下命令格式化其他Namenode:
$HADOOP_HOME/bin/hdfs namenode -format-clusterId <cluster_id>
c、升级集群至最新版本。在升级过程中需要提供一个ClusterID,例如:
H
A
D
O
O
P
P
R
E
F
I
X
H
O
M
E
/
b
i
n
/
h
d
f
s
s
t
a
r
t
n
a
m
e
n
o
d
e
−
−
c
o
n
f
i
g
HADOOP_PREFIX_HOME/bin/hdfs start namenode --config
HADOOPPREFIXHOME/bin/hdfsstartnamenode−−configHADOOP_CONF_DIR -upgrade -clusterId <cluster_ID>
如果没有提供ClusterID,则会自动生成一个ClusterID。
(6)、blockpoolID:是针对每一个Namespace所对应的blockpool的ID,上面的这个BP-893790215-192.168.24.72-1383809616115就是在我的ns1的namespace下的存储块池的ID,这个ID包括了其对应的NameNode节点的ip地址。
2、$dfs.namenode.name.dir/current/seen_txid非常重要,是存放transactionId的文件,format之后是0,它代表的是namenode里面的edits_*文件的尾数,namenode重启的时候,会按照seen_txid的数字,循序从头跑edits_0000001~到seen_txid的数字。所以当你的hdfs发生异常重启的时候,一定要比对seen_txid内的数字是不是你edits最后的尾数,不然会发生建置namenode时metaData的资料有缺少,导致误删Datanode上多余Block的资讯。
3、$dfs.namenode.name.dir/current目录下在format的同时也会生成fsimage和edits文件,及其对应的md5校验文件。
补充:seen_txid
文件中记录的是edits滚动的序号,每次重启namenode时,namenode就知道要将哪些edits进行加载edits
/etc/profile 文件
Namenode存储元数据 浏览集群存储了多少文件
目录是元数据的一部分
元数据放前面namenode上,真正文件存储在集群datanode上
内容转载自https://blog.csdn.net/tototuzuoquan/article/details/72811171