一个hadoop笔记

原文链接

配置文件/etc/profile:

编辑配置文件 /etc/profile,配置 hadoop环境变量 HADOOP_HOME。

cd ~
sudo vim /etc/profile

在配置文件中输入以下代码:

export HADOOP_HOME=/usr/local/hadoop      
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin

编辑完成后保存并退出,使用 source命令使配置生效

source /etc/profile

测试环境是否配置成功

hadoop version

开启hadoop:

启动 Hadoop的 NameNode和 DataNode守护进程。

cd $HADOOP_HOME
./sbin/start-dfs.sh

启动时如果出现SSH提示,输入 yes即可。还有,启动时可能会出现 WARN提示。这个提示可以忽略不计,不会影响 hadoop的正常使用。

启动完成之后,输入 jps指令查看所有的 Java进程。

jps

如果出现以下四个进程,证明 Hadoop启动成功。

Jps
DataNode
NameNode
SecondaryNameNode

如果想要启动所有的 Hadoop进程,使用 all命令,启动过程中的 WARN可以忽略不计。伪分布式模式下我们仅 start-dfs就足够了,不必将全部进程都启动,全分布式模式才需要 start-all。

cd $HADOOP_HOME
./sbin/start-all.sh

Hadoop进程全部启动的话,会有六个进程

Jps
DataNode
NameNode
SecondaryNameNode
NodeManager
ResourceManager

如果想要关闭 Hadoop,使用以下命令关闭 Hadoop守护进程。如果使用 all启动了全部进程,也请使用 all关闭全部进程。

//关闭守护进程
cd $HADOOP_HOME
./sbin/stop-dfs.sh

//关闭全部进程
cd $HADOOP_HOME
./sbin/stop-all.sh

如果 Hadoop启动之后输入 jps指令发现 DataNode节点没有启动,可以尝试一下删除 tmp文件夹,然后重新初始化 HDFS。

cd $HADOOP_HOME
./sbin/stop-dfs.sh
rm -r ./tmp
./bin/hdfs namenode -format
./sbin/start-dfs.sh

注意,这样会删除 HDFS中原有的所有数据,如果原有数据比较重要的话请做好备份。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值