操作环境:
Mac OS X 10.7.2
hadoop-0.20.203.0
单节点本地部署。
当按照官方文档单节点启动:
从输出的信息中有一条报错信息:
Unable to load realm info from SCDynamicStore
进一步发现,此错误在单机上Pseudo-Distributed Operation时依然报同样错误,
此bug已再hadoop官方备案:
[url]https://issues.apache.org/jira/browse/HADOOP-7489[/url]
此问题还没有得到根本解决,但网络上有一种解决方法:
就是在hadoop-env.sh文件中加上这一行:
export HADOOP_OPTS="-Djava.security.krb5.realm=OX.AC.UK -Djava.security.krb5.kdc=kdc0.ox.ac.uk:kdc1.ox.ac.uk"
(这里的意思是设置启动hadoop时设定相关的JVM参数)
但此方法在Pseudo-Distributed Operation时好像没有就绝问题。
(上面仅此记录问题,以后有时间解决。)
经过自己亲自实验,在单节点情况下,上面方法有效,运行例子后不报错。
再一步实验,在Pseudo-Distributed Operation情况下,也一切启动正常,不报错。
Mac OS X 10.7.2
hadoop-0.20.203.0
单节点本地部署。
当按照官方文档单节点启动:
$ mkdir input
$ cp conf/*.xml input
$ bin/hadoop jar hadoop-examples-*.jar grep input output 'dfs[a-z.]+'
$ cat output/*
从输出的信息中有一条报错信息:
Unable to load realm info from SCDynamicStore
进一步发现,此错误在单机上Pseudo-Distributed Operation时依然报同样错误,
此bug已再hadoop官方备案:
[url]https://issues.apache.org/jira/browse/HADOOP-7489[/url]
此问题还没有得到根本解决,但网络上有一种解决方法:
就是在hadoop-env.sh文件中加上这一行:
export HADOOP_OPTS="-Djava.security.krb5.realm=OX.AC.UK -Djava.security.krb5.kdc=kdc0.ox.ac.uk:kdc1.ox.ac.uk"
(这里的意思是设置启动hadoop时设定相关的JVM参数)
但此方法在Pseudo-Distributed Operation时好像没有就绝问题。
(上面仅此记录问题,以后有时间解决。)
经过自己亲自实验,在单节点情况下,上面方法有效,运行例子后不报错。
再一步实验,在Pseudo-Distributed Operation情况下,也一切启动正常,不报错。