Hadoop 伪分布式环境搭建

参考网址: http://hadoop.apache.org/docs/r2.8.2/hadoop-project-dist/hadoop-common/SingleCluster.html#Pseudo-Distributed_Operation

需提前配置好java环境,下载安装包并解压好,进入加压后的文件夹

修改配置

vi etc/hadoop/core-site.xml 

内容如下

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>
vi etc/hadoop/hdfs-site.xml

内容如下

<configuration>
  <!--副本数量为1个-->
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>

免密登陆

ssh-keygen -t rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 0600 ~/.ssh/authorized_keys

执行

 # 格式化
 # hadoop.tmp.dir默认/tmp/hadoop-${user.name},每次重启linux都需要重新格式化
 bin/hdfs namenode -format
 # 启动
 sbin/start-dfs.sh
 # 	启动成功后可在http://localhost:50070/访问
 #  share/hadoop/mapreduce/下有一些mapreduce的例子,可运行进行测试
 #  停止
 sbin/stop-dfs.sh

YARN

vi etc/hadoop/mapred-site.xml

内容如下

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>
vi etc/hadoop/yarn-site.xml

内容如下

<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>
# 开启
sbin/start-yarn.sh
# 成功后可在http://localhost:8088/访问
# 关闭
sbin/stop-yarn.sh
# 将这些命令加入到path路径
echo PATH=$PATH:/usr/local/hadoop-2.8.2/bin >> /etc/profile
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值