Hadoop伪分布式集群的搭建

我在后面学习Hive的时候,在最开始我的Hadoop集群搭建的有问题,所以我决定重头搭建,然后做出笔记。写了一些自己遇到的坑,这里来把这些坑给填上。

Hadoop基本安装配置主要包括以下5个步骤。
(1)创建Hadoop用户
(2)安装Java
(3)设置SSH登录权限
(4)单机安装配置
(5)伪分布式安装配置
我使用的操作系统是Ubuntu14.4,Hadoop版本为2.7.3

第一步,先安装一个Linux系统,创建Hadoop用户

我用的是VMware虚拟机,我大学生涯就用了这一个虚拟机,感觉短小精悍功能强大。
我选择的是Ubuntu系统,因为我感觉Ubuntu的系统用起来比较舒服,并且遇到问题在网络上写Ubuntu的解决方案也比较多,推荐使用Ubuntu。

这里我就完成了第一步的操作
在创建虚拟机的过程中我就建立了一个Hadoop用户,为了规范,在使用Linux系统对于用户比较敏感,因为Linux是多用户的。尽量养成一种好的习惯,名字为Hadoop用户那么这个用户就是关于Hadoop的。

第二步,安装Java

我以为是新装的Ubuntu不能连接FileZilla,需要下载ssh

安装ssh

sudo apt-get install openssh-server

安装完后查看ssh server是否启动

sudo /etc/init.d/ssh status

如果没有启动,使用一下命令启动:

sudo /etc/init.d/ssh start

根据ifconfig查看IP,用FileZilla连接,使用非常简单一看就会。
网上下载一个JDK-linux版本的

这里遇到了一个坑,一定要注意和自己Linux位数相同的看好自己的是32位还是64位,我下的12.0.1版本的JDK

这里一定不要下高版本的JDK,我在后面的Hive数据仓库安装的时候出现了问题,最后我改成改了1.8版本的。

sudo uname --m

之后就是JDK的配置问题,网络有有好多的配置方法可以参考

特别注意:在配置环境变量的时候
sudo gedit ~/.bashrc #这里配置是给当前用户配置的环境变量,如果用的prefile配置则不考虑用户的问题,特别注意

第三步,SSH登录权限设置,设置无密码登录

$ sudo apt-get install openssh-server   #安装SSH server
$ ssh localhost                         #登陆SSH,第一次登陆输入yes
$ exit                                  #退出登录的ssh localhost
$ cd ~/.ssh/                            #如果没法进入该目录,执行一次ssh localhost
$ ssh-keygen -t rsa  

其中,第一次回车是让KEY存于默认位置,以方便后续的命令输入。第二次和第三次是确定passphrase,相关性不大。两次回车输入完毕以后,如果出现类似于下图所示的输出,即成功:

之后再输入

$ cat ./id_rsa.pub >> ./authorized_keys #加入授权
$ ssh localhost                         #此时已不需密码即可登录localhost

第四步,单机安装Hadoop

我安装的Hadoop版本为2.7.3,下载地址为http://hadoop.apache.org/releases.html#Download

在目录中选择hadoop-2.7.3.tar.gz进行下载就行了

我是放在了/usr/local/haddoop文件夹下,注意这里一定要改这个文件夹的权限

sudo chown -R hadoop ./hadoop                        #修改文件权限

然后给hadoop配置环境变量,在当前用户下配置

gedit ~/.bashrc

添加如下代码:

export HADOOP_HOME=/usr/local/hadoop/hadoop-2.7.3  #这里的路径为你安装hadoop的文件夹
export CLASSPATH=$($HADOOP_HOME/bin/hadoop classpath):$CLASSPATH
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

注意:一定要看好自己装的文件夹,别把Hadoop的上级文件放上去。就是在这个目录下一级是如下图所示:

在使用source ~/.bashrc命令出现如下图,证明你迈出了第一步,安装好了Hadoop但是没有集群的搭建,不要放弃,也不要觉得配置完了
接下来才是更大的难题,更容易出错的地方

第五步,Hadoop伪分布式安装

Hadoop 可以在单节点上以伪分布式的方式运行,Hadoop 进程以分离的 Java 进程来运行,节点既作为 NameNode 也作为 DataNode,同时,读取的是 HDFS 中的文件。Hadoop 的配置文件位于 /usr/local/hadoop/etc/hadoop/ 中,伪分布式需要修改2个配置文件 core-site.xml 和 hdfs-site.xml 。Hadoop的配置文件是 xml 格式,每个配置以声明 property 的 name 和 value 的方式来实现。首先将jdk1.7的路径添(export JAVA_HOME=/usr/lib/jvm/java )加到hadoop-env.sh文件

配置hadoop-env.sh文件,在hadoop安装目录下的/etc/hadoop/

gedit hadoop-env.sh

修改第27行

export JAVA_HOME=你的JDK路径

接下来修改core-site.xml文件:

<configuration>
 <name>hadoop.tmp.dir</name>
             <value>file:/usr/local/hadoop/hadoop-2.7.3/tmp</value>
             <description>Abase for other temporary directories.</description>
        </property>
        <property>
             <name>fs.defaultFS</name>
             <value>hdfs://localhost:9000</value>
        </property>
</configuration>

还要特别注意这里面的路径都要写你安装hadoop的路径,千万别错了。后面出问题找很麻烦
这里要注意要创建一个tmp的文件夹,防止以后有问题出现

然后配置hdfs-site.xml文件

<configuration>
<property>
             <name>dfs.replication</name>
             <value>1</value>
        </property>
        <property>
             <name>dfs.namenode.name.dir</name>
             <value>file:/usr/local/hadoop/hadoop-2.7.3/tmp/dfs/name</value>
        </property>
        <property>
             <name>dfs.datanode.data.dir</name>
             <value>file:/usr/local/hadoop/hadoop-2.7.3/tmp/dfs/data</value>
        </property>
</configuration>

注意:这里的路径也是安装路径

Hadoop 的运行方式是由配置文件决定的(运行 Hadoop 时会读取配置文件),因此如果需要从伪分布式模式切换回非分布式模式,需要删除 core-site.xml 中的配置项。此外,伪分布式虽然只需要配置 fs.defaultFS 和 dfs.replication 就可以运行(可参考官方教程),不过若没有配置 hadoop.tmp.dir 参数,则默认使用的临时目录为 /tmp/hadoo-hadoop,而这个目录在重启时有可能被系统清理掉,导致必须重新执行 format 才行。所以我们进行了设置,同时也指定 dfs.namenode.name.dir 和 dfs.datanode.data.dir,否则在接下来的步骤中可能会出错。

配置完成后,执行 NameNode 的格式化

./bin/hdfs namenode -format

如果出现bash: ./bin/hdfs: No such file or directory

则可以去你Hadoop安装目录下的bin目录运行,是一样的

hdfs namenode -format

最后出现如下图,那么证明成功了

启动namenode和datanode进程,并查看启动结果

./sbin/start-dfs.sh
jps

然后停止

./sbin/stop-dfs.sh
jps

看看全启动是否成功,运行下面命令

start-all.sh
jps

如果出现下面的图就说明你安装成功了 恭喜你!!!

成功启动后,可以访问 Web 界面 http://localhost:50070 查看 NameNode 和 Datanode 信息,还可以在线查看 HDFS 中的文件。

参考

【更多的细节可以参照 https://www.cnblogs.com/87hbteo/p/7606012.html 感谢大佬】

【还有林子雨编写的《大数据技术 原理与应用》】

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值