大数据环境搭建 Hadoop + Hbase

搭建前准备:

1.环境搭建资源:

链接:https://pan.baidu.com/s/1m0OIGidfr7if42NPHcnRjg 
提取码:b8ru

根据自己需要下载对应得资源即可

2.打开虚拟机,登录你的Linux系统。

3..使用SSH(或者Xftp)工具远程登陆服务器。

4.用文件传输工具远程登录系统。

5.在/home目录下新建 Hadoop  java 文件夹。

6.将之前下载好的jdk上传到/home/java目录下。

7.在/home/java目录下 执行命令  rpm -ivh jdk-7u67-linux-x64.rpm  安装

java环境.

8.配置java环境变量. 执行命令  vi /etc/profile   编辑配置文件。

9.将以下配置文件输入到 /etc/profile中:

export   JAVA_HOME=/usr/java/jdk1.7.0_67    //根据自己的jdk位置填写

export   HADOOP_HOME=/home/hadoop/hadoop-2.5.1

export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

10.配置好文件后保存并退出,重新加载配置文件。执行命令:

source /etc/profile

11.使用Secure File Transfer Client(Xftp) 在/home/hadoop目录下  上传下载好的 Hadoop 解压包。

12.切换到/home/hadoop目录下,执行命令: 

tar xzvf hadoop-2.5.1_x64.tar.gz

13.等待解压完成,会生成一个文件夹  hadoop-2.5.1

14.执行命令: cd /home/hadoop/hadoop-2.5.1/etc/hadoop,切换目录。

15.执行命令: vi hadoop-env.sh  ,配置hadoop-env.sh文件

16.配置JAVA_HOME,    输入: JAVA_HOME=/usr/java/jdk1.7.0_67

17.执行命令:cd  /home/hadoop/hadoop-2.5.1/etc/hadoop 切换目录。

18.执行命令: vi core-site.xml ,配置core-site.xml。

19.配置以下文件:

<property>

         <name>fs.defaultFS</name>

         <value>hdfs://192.168.8.34:8020</value>

</property>

<property>

         <name>hadoop.tmp.dir</name>

         <value>/opt/data/tmp</value>

</property>

20.执行命令:cd  /home/hadoop/hadoop-2.5.1/etc/hadoop  ,切换目录。

21.执行命令:vi hdfs-site.xml ,配置hdfs-site.xml文件:

  <property>

       <name>dfs:replication</name>

       <value>1</value>

   </property>

22.ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa  --生成公钥和秘钥

cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys  --将公钥放入文件中

23.格式化NameNode,执行命令:hdfs namenode -format

24.执行命令:cd ../../sbin  切换到sbin 目录下

25.执行命令: start-dfs.sh  启动namennode。

26.执行命令:jps  查看启动成功信息(会出现下面4个进程)

27.执行命令:service iptables stop ,关闭防火墙。

28.执行命令:cd /home/hadoop/hadoop-2.5.1/bin 切换到指定目录。

29.

执行命令:./hdfs dfs -mkdir -p /usr/file

./hdfs dfs -put /root/jdk-7u67-linux-x64.rpm /usr/file

测试上传文件是否成功。

30.打开浏览器,访问:http://192.168.8.34:50070  测试是否配置成功。注意换成自己的IP地址。

至此 Hadoop 搭建完成。

 

Hbase搭建:

1.使用Secure File Transfer Client(或者Xftp) 上传下载好的hbase压缩包。

2.执行命令 tar zxvf hbase-0.98.12.1-hadoop2-bin.tar.gz 解压hbase.

3.执行命令:vi /etc/profile 配置profile文件:

export JAVA_HOME=/usr/java/jdk1.7.0_67

export HADOOP_HOME=/home/hadoop/hadoop-2.5.1

export HBASE_HOME=/home/hbase/ hbase-0.98.12.1-hadoop2  

export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$HBASE_HOME/bin

4.执行命令:source /etc/profile  重新加载 profile。

5.执行命令:cd /home/hadoop/ hbase-0.98.12.1-hadoop2 /conf 切换目录,vi hbase-env.sh配置hbase-env.sh文件:

export JAVA_HOME=/usr/java/jdk1.7.0_67

6.执行命令: vi hbase-site.xml 配置hbase-site.xml文件:

<configuration>

  <property>

    <name>hbase.rootdir</name>

    <value>hdfs://192.168.8.34:8020/hbase</value>

  </property>

  <property>

    <name>hbase.zookeeper.property.dataDir</name>

    <value>/home/data/zookeeper</value>

  </property>

  <property>

    <name>hbase.cluster.distributed</name>

    <value>true</value>

  </property>

</configuration>

7.执行命令:vi regionservers 配置regionservers文件。

8.修改里面内容为:192.168.8.34(虚拟机ip地址)

9.执行命令:start-hbase.sh    启动hbase

10.执行命令: jps  查看启动信息

11.在浏览器地址栏访问http://192.168.8.34:60010  (ip改为自己的)。

至此,Hadoop+Hbase搭建完成。

由于本文是之前写的,后来加以修改。图片中有的文件版本可能找不到了,用资源中得文件也可以搭建。

最后,本文搭建环境仅用于学习使用,和企业使用场景有很大出入。

 

 

 

.

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 搭建大数据环境需要以下步骤: 1. 安装HadoopHadoop是一个分布式计算框架,用于处理大规模数据集。安装Hadoop需要下载Hadoop软件包,并进行配置。 2. 安装Hive:Hive是一个数据仓库工具,用于在Hadoop上进行数据分析和查询。安装Hive需要下载Hive软件包,并进行配置。 3. 安装Spark:Spark是一个快速的大数据处理框架,用于在Hadoop上进行数据处理和分析。安装Spark需要下载Spark软件包,并进行配置。 4. 安装Zookeeper:Zookeeper是一个分布式协调服务,用于管理Hadoop集群中的节点。安装Zookeeper需要下载Zookeeper软件包,并进行配置。 5. 安装HBaseHBase是一个分布式的NoSQL数据库,用于存储和管理大规模数据。安装HBase需要下载HBase软件包,并进行配置。 以上是搭建大数据环境的基本步骤,需要根据实际情况进行具体的配置和调整。 ### 回答2: 随着互联网技术的不断发展,越来越多的数据被产生和需要处理,因此,搭建大数据环境成为了一项非常重要的工作。目前,Hadoop、Hive、Spark、Zookeeper、Hbase大数据技术成为了最为重要的技术。下面,我们来详细介绍这些技术的大数据环境搭建。 1. Hadoop的安装 Hadoop是一个开源的分布式文件系统和数据处理框架,可以处理大规模数据的存储和处理。Hadoop的安装主要包括以下几个步骤: 1)安装JDK环境; 2)下载Hadoop的二进制包; 3)解压Hadoop的二进制包,并配置环境变量; 4)修改Hadoop的相关配置文件; 5)启动Hadoop。 2. Hive的安装 Hive是一个基于Hadoop的数据仓库工具,提供了类似于SQL的查询语言,可以用于大规模数据仓库的创建和查询。Hive的安装主要包括以下几个步骤: 1)安装JDK环境; 2)下载Hive的二进制包; 3)解压Hive的二进制包,并配置环境变量; 4)修改Hive的相关配置文件; 5)启动Hive。 3. Spark的安装 Spark是一个快速而通用的大数据处理引擎,可以执行大规模数据处理任务,并支持分布式计算。Spark的安装主要包括以下几个步骤: 1)安装JDK环境; 2)下载Spark的二进制包; 3)解压Spark的二进制包,并配置环境变量; 4)修改Spark的相关配置文件; 5)启动Spark。 4. Zookeeper的安装 Zookeeper是一个高性能分布式应用程序协调服务,可以用于协调和同步大规模集群中的应用程序。Zookeeper的安装主要包括以下几个步骤: 1)安装JDK环境; 2)下载Zookeeper的二进制包; 3)解压Zookeeper的二进制包,并配置环境变量; 4)修改Zookeeper的相关配置文件; 5)启动Zookeeper。 5. Hbase的安装 Hbase是一个基于Hadoop的分布式非关系型数据库,提供了类似于Google的Bigtable的基于列的存储方式。Hbase的安装主要包括以下几个步骤: 1)安装JDK环境; 2)下载Hbase的二进制包; 3)解压Hbase的二进制包,并配置环境变量; 4)修改Hbase的相关配置文件; 5)启动Hbase。 在完成上述大数据技术的安装后,我们还需在使用时将它们进行整合,以达到更加高效的数据处理和管理。这些技术之间的整合一般都需要配置相关的XML文件和环境变量,具体操作可根据实际情况去修改和设置。小编建议,初学者应该多参考一些大佬的经验,互联网上有很多大牛分享了上述技术的搭建方法,读者可以多花些时间去学习和了解。 ### 回答3: 随着现代信息技术的不断发展,大数据的应用越来越广泛。作为目前大数据环境的主流组件,Hadoop、Hive、Spark、Zookeeper和HBase都是大数据领域的重要工具。为了能够更好地进行大数据分析和处理,需要对这些工具进行合理的搭建和配置。 1. Hadoop的搭建 Hadoop是一个分布式存储和计算的框架,搭建Hadoop需要安装JAVA环境,并下载相应的Hadoop压缩包。将Hadoop解压到本地目录,在安装文件中设置JAVA_HOME和HADOOP_HOME环境变量。启动Hadoop需要先启动NameNode和DataNode,然后启动JobTracker和TaskTracker。搭建好Hadoop后,还需要使用HDFS命令行或Hadoop API进行文件的上传、下载、删除等基本操作。 2. Hive的搭建 Hive是一个基于Hadoop的数据仓库工具,可以将结构化数据映射到Hadoop的存储系统中。Hive搭建需要先安装JAVA环境和Hadoop,然后下载并解压Hive压缩包。将Hive和Hadoop的配置文件进行关联,启动Hive服务时需要启动Metastore和HiveServer2服务。搭建完成后,可以使用HiveQL语句进行数据的查询、插入、删除等操作。 3. Spark的搭建 Spark是一个快速通用的大数据计算引擎,可用于数据分析、机器学习等场景。Spark搭建需要安装JAVA和Scala等相关组件,并下载Spark压缩包。将Spark解压到本地目录后,设置SPARK_HOME环境变量以及Hadoop和YARN的配置相关参数。启动Spark服务时需要先启动Master和Slave节点。搭建完成后,可以使用Spark Shell和Spark SQL进行数据处理和分析。 4. Zookeeper的搭建 Zookeeper是一个分布式的协调服务,可以用于管理各类分布式应用程序的配置和信息。将Zookeeper下载并解压到本地目录,设置ZOOKEEPER_HOME环境变量,并修改Zoo.cfg配置文件中的端口号、数据目录等相关参数。启动Zookeeper服务时需要先启动一个Leader和多个Follower。搭建完成后,可以使用ZooKeeper API对Zookeeper的节点进行管理和配置。 5. HBase的搭建 HBase是一个列存储数据库,可以在Hadoop上提供实时读写服务。HBase搭建需要安装JAVA环境、Hadoop和Zookeeper,并下载HBase压缩包。将HBase解压到本地目录,并进行相关配置,比如修改HBase-site.xml配置文件的参数、设置HBASE_HOME环境变量等。启动HBase服务前需要先启动Zookeeper服务。搭建完成后,可以使用Java API或HBase Shell进行数据的读写操作。 综上所述,搭建大数据环境需要先安装基础的JAVA环境和相关组件,然后根据各个工具的安装包进行相应的配置和启动,最后进行测试和调试。在搭建过程中需要注意版本、路径等问题,避免出现配置错误。经过搭建和调试后,可以使用这些工具进行海量数据的分析和处理,为企业的决策提供有力的支持。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值