搭建单机kylin

 

需要准备的软件
序号软件名称版本号如何搭建
1hadoophadoop-3.2.1见下文
2hbasebase-2.2.5 
3hiveapache-hive-3.1.2-bin链接
4sparkspark-3.0.0-preview2-bin-hadoop3.2 
5kylinapache-kylin-2.6.6-bin-hadoop3 

 

上面的组合我部署成功了。

 


单机安装hadoop

  1. 假设安装目录为:/opt/hadoop-3.2.1
  2. 配置环境变量,注意hadoop里面的命令在bin目录和sbin目录
    export HADOOP_HOME=/opt/hadoop-3.2.1
    export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

     

  3. 使环境变量生效
    source /etc/profile

     

  4. 下面分别配置core-site.xml,hdfs-site.xml,hadoop-env.sh和yarn-env.sh. 
    1. 修改core-site.xml,修改后内容如下:
    2. <configuration>
       <property>       
      	<name>fs.defaultFS</name>       
      	<value>hdfs://localhost:9000</value>   
        </property>
       <property>
              <name>hadoop.proxyuser.root.hosts</name>
              <value>*</value>
       </property>
       <property>
              <name>hadoop.proxyuser.root.groups</name>
              <value>*</value>
       </property>
      </configuration>

       

    3. 修改hdfs-site.xml修改后内容如下:

    4. <configuration>
      <!-- 配置文件备份数量 -->
              <property>
                      <name>dfs.replication</name>
                      <value>1</value>
              </property>
      
      <property>
                      <name>dfs.namenode.name.dir</name>
                      <value>/opt/hadoop_namenode</value>
              </property>
              <property>
                      <name>dfs.datanode.data.dir</name>
                      <value>/opt/hadoop_datanode</value>
              </property>
      <property>
              <name>dfs.webhdfs.enabled</name>
              <value>true</value>
      </property>
      
      </configuration>
      
    5. 修改hadoop-env.sh和yarn-env.sh。分别增加指向java_home的配置。如下:

    6. export JAVA_HOME=/usr/java/jdk1.8.0_241-amd64

       

    7. 创建目录,/opt/hadoop_datanode和/opt/hadoop_namenode。

    8. mkdir /opt/hadoop_datanode
      mkdir /opt/hadoop_namenode

       

  5. 下面开始启动服务,注意hadoop的命令分别在bin目录和sbin目录。

    1. 到bin目录执行下列命令。

      1. hdfs namenode -format

         

    2. 到sbin目录执行启动命令:

      1. start-all.sh

         

    3. 到sbin目录执行关闭命令,关闭时使用。命令如下

      1.  stop-all.sh

         

    4. 其他命令:

      1. start-dfs.sh
        start-yarn.sh
        
        start-balancer.sh
        start-secure-dns.sh
        

         

  6. 验证
    1. 方法1:输入下列命令,并出现后面的结果则证明启动正常
      1. jps
        

  1. 方法2:在浏览器中输入http://localhost:50070/。出现如下界面,证明成功。

 

http://localhost:8088/出现如下界面

 

8  使用

8.1 创建HDFS

# hdfs dfs -mkdir /user
# hdfs dfs -mkdir /user/test
8.2  拷贝input文件到HDFS目录下

# hdfs dfs -put etc/hadoop /user/test/input

8.3 确认,查看
# hadoop fs -ls /user/test/input
8.4  执行Hadoop job

# hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.0.jar grep /user/test/input output 'dfs[a-z.]+'
8.5  确认执行结果

# hdfs dfs -cat output/*

或者从HDFS拷贝到本地查看

# bin/hdfs dfs -get output output
# cat output/*

8.6  停止daemon

# sbin/stop-dfs.sh

8.7  执行YARN job
MapReduce V2框架叫YARN

8.7.1 修改设定文件

# cp etc/hadoop/mapred-site.xml.template etc/hadoop/mapred-site.xml
# vi etc/hadoop/mapred-site.xml
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>
 


# vi etc/hadoop/yarn-site.xml
<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>
8.7.2 启动ResourceManger和NodeManager后台进程

# sbin/start-yarn.sh


8.8

8.8.1 执行hadoop job

# hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.0.jar grep /user/test/input output 'dfs[a-z.]+'
8.8.2确认执行结果

# hdfs dfs -cat output/*
执行结果和MapReduce job相同

8.9 停止daemon
# sbin/stop-yarn.sh

9 单机部署主要是为了调试用,生产环境上一般是集群部署,接下来会进行介绍。

 

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值