Hadoop的启动和停止说明

sbin/start-all.sh 启动所有的Hadoop守护进程。包括NameNode、 Secondary NameNode、DataNode、ResourceManager、NodeManager

sbin/stop-all.sh 停止所有的Hadoop守护进程。包括NameNode、 Secondary NameNode、DataNode、ResourceManager、NodeManager

sbin/start-dfs.sh 启动Hadoop HDFS守护进程NameNode、SecondaryNameNode、DataNode

sbin/stop-dfs.sh 停止Hadoop HDFS守护进程NameNode、SecondaryNameNode和DataNode

sbin/hadoop-daemons.sh start namenode 单独启动NameNode守护进程

sbin/hadoop-daemons.sh stop namenode 单独停止NameNode守护进程

sbin/hadoop-daemons.sh start datanode 单独启动DataNode守护进程

sbin/hadoop-daemons.sh stop datanode 单独停止DataNode守护进程

sbin/hadoop-daemons.sh start secondarynamenode 单独启动SecondaryNameNode守护进程

sbin/hadoop-daemons.sh stop secondarynamenode 单独停止SecondaryNameNode守护进程

sbin/start-yarn.sh 启动ResourceManager、NodeManager

sbin/stop-yarn.sh 停止ResourceManager、NodeManager

sbin/yarn-daemon.sh start resourcemanager 单独启动ResourceManager

sbin/yarn-daemons.sh start nodemanager  单独启动NodeManager

sbin/yarn-daemon.sh stop resourcemanager 单独停止ResourceManager

sbin/yarn-daemons.sh stopnodemanager  单独停止NodeManager

 

sbin/mr-jobhistory-daemon.sh start historyserver 手动启动jobhistory

sbin/mr-jobhistory-daemon.sh stop historyserver 手动停止jobhistory

转载于:https://www.cnblogs.com/xym4869/p/8821312.html

  • 3
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,下面我会为您详细介绍一下如何搭建hadoop3.1.3: 1.准备工作: 安装jdk1.8或以上版本,配置好环境变量。 2.下载hadoop3.1.3: 从官网(https://hadoop.apache.org/releases.html)下载hadoop-3.1.3.tar.gz文件,解压到任意目录。 3.配置hadoop: a.修改hadoop-env.sh文件: 修改JAVA_HOME为JDK的安装路径: export JAVA_HOME=/usr/local/java/jdk1.8.0_131 b.修改core-site.xml文件: 添加以下内容: <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/usr/local/hadoop/tmp</value> </property> </configuration> c.修改hdfs-site.xml文件: 添加以下内容: <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/usr/local/hadoop/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/usr/local/hadoop/dfs/data</value> </property> </configuration> d.修改mapred-site.xml.template文件: 将文件名改为mapred-site.xml: mv mapred-site.xml.template mapred-site.xml 添加以下内容: <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> e.修改yarn-site.xml文件: 添加以下内容: <configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> <property> <name>yarn.resourcemanager.hostname</name> <value>localhost</value> </property> <property> <name>yarn.nodemanager.local-dirs</name> <value>/usr/local/hadoop/yarn_local</value> </property> <property> <name>yarn.nodemanager.log-dirs</name> <value>/usr/local/hadoop/yarn_log</value> </property> </configuration> f.将hadoop拷贝到指定目录: 将解压后的hadoop文件夹拷贝到/usr/local/目录下。 4.启动hadoop: a.格式化namenode: cd /usr/local/hadoop/bin ./hdfs namenode -format b.启动hadoop: ./start-all.sh c.查看启动状态: jps 如果能看到以下进程,则说明hadoop已经启动成功: NameNode SecondaryNameNode DataNode ResourceManager NodeManager 5.测试hadoop: a.创建文件夹: ./hdfs dfs -mkdir /test b.上传文件: ./hdfs dfs -put /usr/local/hadoop/LICENSE.txt /test/ c.查看文件: ./hdfs dfs -ls /test d.下载文件: ./hdfs dfs -get /test/LICENSE.txt /usr/local/hadoop/ e.删除文件: ./hdfs dfs -rm /test/LICENSE.txt f.停止hadoop: ./stop-all.sh 以上就是hadoop3.1.3的搭建详细说明,希望对您有所帮助。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值