首先在/usr/local下新建一个hadoop文件夹
cd /usr/local
mkdir hadoop
链接:https://pan.baidu.com/s/1mswY8vgrFlsLuGhCd9fAGQ 密码:evjs
然后将安装包放在这个目录下。
apache-hadoop-2.7.3.tar.gz
可以用scp工具,也可以直接rz上传。方法很多自己用一个就行。
然后tar -zxvf 它,然后删掉安装包
然后在hadoop下新建两个文件夹hdfs与tmp并在hdfs文件夹下新建data文件夹与name文件夹,应为tmp是为了存放一些临时文件
data与name是为了存放一些配置文件。
配置环境变量,可以配置用户的环境变量,也可以配置系统的环境变量,这是为了让hadoop可以在任何目录下都可以使用
先说一下用户:
在文件中添加一下内容
运行配置文件
然后找到存放hadoop配置文件的目录
cd /usr/local/hadoop/hadoop-2.7.3/etc/hadoop
修改配置文件
接下来修改的配置文件在的详解在下载的文件中
修改完配置文件就可以进行格式化操作
这样就成功了
你就可以进入到Hadoop的sbin目录下进行启动
然后可以输入jps查看已开启的进程
每个进行的作用是这样的:
NameNode:老大
SecondaryNameNode:老大的秘书
DataNode:具体存数据的节点,小弟
我们可以通过8088和50070端口,在web端查看相关页面
50070:分布式存储的状态
这样,单节点就已经创建好了接下来就可以尝试使用hadoop实现完全分布式!