1、集群:
# more core-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://192.168.105.10:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop1.2.1/tmp/hadoop_tmp</value>
</property>
</configuration>
2、开发机WIN7 用户名admin。通过eclipse连接hdfs,连接不上。
hadoop自带一个WordCount程序,我用admin身份去执行的时候, 但执行的时候一直报Permission denied错误。研究了非常久,才发现hadoop在进行map-reduce的时候,需要将临时文件写到/tmp目录,但上述的步骤中我们并没有为admin授权这个目录的写权限。
解决方式:以root身份登陆,执行hadoop fs -chmod -R 777 /home/hadoop1.2.1 就可以解决问题了
# more core-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://192.168.105.10:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop1.2.1/tmp/hadoop_tmp</value>
</property>
</configuration>
2、开发机WIN7 用户名admin。通过eclipse连接hdfs,连接不上。
hadoop自带一个WordCount程序,我用admin身份去执行的时候, 但执行的时候一直报Permission denied错误。研究了非常久,才发现hadoop在进行map-reduce的时候,需要将临时文件写到/tmp目录,但上述的步骤中我们并没有为admin授权这个目录的写权限。
解决方式:以root身份登陆,执行hadoop fs -chmod -R 777 /home/hadoop1.2.1 就可以解决问题了