Hadoop伪分布式部署之HDFS二

基础配置hdfs看我上一篇,这篇是进阶,然后在这里我要讲一下,我们配置要配置hostname,因为配置ip的话可能以后在企业会进行ip迁移

然后现在我们开始来配置
namenode(老大):vi core-site.xml,然后配置一下代码

<configuration>
<property>
        <name>fs.defaultFS</name>
        <value>hdfs://hadoop002:9000</value>
</property>
</configuration>

其实就是把端口号前面的改成自己的主机名,不要复制我里面的,因为我的主机名可能跟你们的不同
然后就是小弟datanode:vi slaves把localhost改为自己的主机名

接着有人可能会说这些都记不住啊,其实我自己也记不住,这是我们可以去官网hadoop apache官网
我告诉你们一个方法
选择对应的版本号
选择对应的版本号然后点进去拖到最下面
在这里插入图片描述
点进去后按住Ctrl + f 进行搜索
在这里插入图片描述
然后我们回到linux:vi hdfs-site.xml

<configuration>
<property>
        <name>dfs.replication</name>
        <value>1</value>
</property>

<property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>hadoop002:50090</value>
</property>

<property>
         <name>dfs.namenode.secondary.https-address</name>
         <value>hadoop002:50090</value>

前面一样是主机名,上面的name就是上面截图的key,下面的value就是截图的端口号

接下来说一下pid,pid是存放在/tmp目录下的,其实pid的本质就是节点进程的id号,服务开启会自动生成,服务停止会去找那个pid文件,再看看是否能停止,这是如果我们把pid文件删除掉,我们的节点就stop不了

然后我们思考一个问题:放在/tmp目录下的文件真的安全吗?
答:在apache里不安全,因为apache /tmp目录下30天会自动清理,所以我们要创建一个文件夹

mkdir -p /data/tmp
chmod 777 /data/tmp

用来存放且不会丢失,如果我们的pid文件要存放在里面只需要

vi /home/hadoop/app/hadoop/etc/hadoop/hadoop-env.sh
# The directory where pid files are stored. /tmp by default.
# NOTE: this should be set to a directory that can only be written to by 
#       the user that will run the hadoop daemons.  Otherwise there is the
#       potential for a symlink attack.
#export HADOOP_PID_DIR=${HADOOP_PID_DIR}
export HADOOP_PID_DIR=/data/tmp

把之前的注释掉然后配置成这个路径的,不要在原来的地方修改,注释掉就好了,避免以后需要还原想不起来,然后有一个注意点就是一定要在节点全部关闭的情况下配置,不然会出现关不掉的现象

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值