基础配置hdfs看我上一篇,这篇是进阶,然后在这里我要讲一下,我们配置要配置hostname,因为配置ip的话可能以后在企业会进行ip迁移
然后现在我们开始来配置
namenode(老大):vi core-site.xml
,然后配置一下代码
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop002:9000</value>
</property>
</configuration>
其实就是把端口号前面的改成自己的主机名,不要复制我里面的,因为我的主机名可能跟你们的不同
然后就是小弟datanode:vi slaves
把localhost改为自己的主机名
接着有人可能会说这些都记不住啊,其实我自己也记不住,这是我们可以去官网hadoop apache官网
我告诉你们一个方法
选择对应的版本号然后点进去拖到最下面
点进去后按住Ctrl + f 进行搜索
然后我们回到linux:vi hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hadoop002:50090</value>
</property>
<property>
<name>dfs.namenode.secondary.https-address</name>
<value>hadoop002:50090</value>
前面一样是主机名,上面的name就是上面截图的key,下面的value就是截图的端口号
接下来说一下pid,pid是存放在/tmp目录下的,其实pid的本质就是节点进程的id号,服务开启会自动生成,服务停止会去找那个pid文件,再看看是否能停止,这是如果我们把pid文件删除掉,我们的节点就stop不了
然后我们思考一个问题:放在/tmp目录下的文件真的安全吗?
答:在apache里不安全,因为apache /tmp目录下30天会自动清理,所以我们要创建一个文件夹
mkdir -p /data/tmp
chmod 777 /data/tmp
用来存放且不会丢失,如果我们的pid文件要存放在里面只需要
vi /home/hadoop/app/hadoop/etc/hadoop/hadoop-env.sh
# The directory where pid files are stored. /tmp by default.
# NOTE: this should be set to a directory that can only be written to by
# the user that will run the hadoop daemons. Otherwise there is the
# potential for a symlink attack.
#export HADOOP_PID_DIR=${HADOOP_PID_DIR}
export HADOOP_PID_DIR=/data/tmp
把之前的注释掉然后配置成这个路径的,不要在原来的地方修改,注释掉就好了,避免以后需要还原想不起来,然后有一个注意点就是一定要在节点全部关闭的情况下配置,不然会出现关不掉的现象