eclipse连接虚拟机的hadoop2.7.7一直出错解决办法

没有配置主机名,按下面的步骤重新配置就好了。

 

0.关闭防火墙

执行:service iptables stop 

 

1.配置主机名

执行:vim  /etc/sysconfig/network

编辑主机名 

 

 

2.配置hosts文件

执行:vim /etc/hosts

 

 

3.配置免密码登录

 执行:ssh-keygen

然后一直回车

 

  执行:ssh-copy-id -i ~/.ssh/id_rsa.pub  root@hadoop01 

 

4.安装和配置jdk

rpm –e jdk1.8.0_111

tar –zxvf jdk-8u65-linux-x64.tar.gz

执行:  vim  /etc/profile

2)在尾行添加

export JAVA_HOME=/usr/soft/jdk1.8.0_65

export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

export PATH=$JAVA_HOME/bin:$PATH

保存退出

3)source /etc/profile 使更改的配置立即生效

4)java -version 查看JDK版本信息。如显示1.8.0_65证明成功。

 

6.上传和解压hadoop安装包

执行:tar -zxvf  hadoop……

 

7.配置hadoop-env.sh

 

执行:vim hadoop-env.sh

修改java_home路径和hadoop_conf_dir 路径

然后执行:source hadoop-env.sh 让配置立即生效 

8.修改core-site.xml

执行:vim core-site.xml

配置如下:

<configuration>

<property>

<name>fs.defaultFS</name>

<value>hdfs://hadoop01:9000</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/usr/soft/hadoop-2.7.1/tmp</value>

</property>

</configuration>

9.修改 hdfs-site.xml

配置如下:

<configuration>

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

 

<property>

<name>dfs.permissions</name>

<value>false</value>

</property>

 

</configuration>

 

10.修改 mapred-site.xml

执行:cp mapred-site.xml.template mapred-site.xml

配置如下:

 

 

<configuration>

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

</configuration>

 

11.修改yarn-site.xml

配置如下:

<configuration>

<!-- Site specific YARN configuration properties -->

<property>

<name>yarn.resourcemanager.hostname</name>

<value>hadoop01</value>

</property>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

</configuration>

12.配置slaves文件

 [root@hadoop1 hadoop]# vim slaves

 

13.配置hadoop的环境变量

配置代码:

export JAVA_HOME=/usr/soft/jdk1.8.0_65

export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

export HADOOP_HOME=/usr/soft/hadoop-2.7.1

export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

 

 

14.格式化namenode

执行:hdfs namenode -format

当出现:successfully,证明格式化成功

  启动hadoop

sbin目录下 执行 ./start-all.sh,即可启动

 

验证是否成功

ps -ef | grep hadoop

jps

 

 

Eclipse配置参考:https://www.cnblogs.com/supiaopiao/p/7240308.html

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值