[hadoop]hive的管理(十一)

原创 2016年06月02日 11:28:46
一、Hive的启动方式
  1. CLI(命令行)方式
    - 直接输入 #<HIVE_HOME>/bin/hive的执行程序
    - 或输入 #hive --service cli

    常用CLI命令
        - 清屏 Ctrl + L 或者 !clear
    查看数据仓库中的表
        - show tables;
    查看数据仓库中内置的函数
        - show functions;
    查看表结构
        - desc 表名
    查看HDFS上的文件
       -dfs -ls目录(递归查看 -lsr)
    执行linux命令
        -! 比如查看当前目录 !pwd;
    执行HQL语句
        - select * from *;
    执行SQL语句
        -source 比如 source /root/my.sql;
        my.sql文件内容:select * from test1;
    静默模式
        -hive -S (启动hive的命令)
    执行直接hive查询
        -hive [-S] -e 'select * from test1';

  2. Web界面方式
    - 端口号9999
    - 启动方式:#hive -service hwi &
    - 通过浏览器来访问:http://<IP地址>:9999/hwi/

    启动
    - 执行命令:hive --service hwi &
    发现报错:
    [root@node1 bin]# hive --service hwi &
    [1] 18292
    [root@node1 bin]# ls: 无法访问/home/hive/lib/hive-hwi-*.war: 没有那目录
    16/06/01 07:11:38 INFO hwi.HWIServer: HWI is starting up
    16/06/01 07:11:43 INFO mortbay.log: Logging to org.slf4j.impl.Log4pter(org.mortbay.log) via org.mortbay.log.Slf4jLog
    16/06/01 07:11:43 INFO mortbay.log: jetty-6.1.26
    16/06/01 07:11:45 INFO mortbay.log: Started SocketConnector@0.0.0
    原因是/hive-hwi-*.war包是不存在的,下面开始安装/hive-hwi-*.war包
    -需要apache-hive-1.2.1-src.tar.gz,并解压tar zxvf apache-hive-1.2.1-src.tar.gz
    -进入解压后目录cd apache-hive-1.2.1-src/hwi,执行命令:jar cvfM0 hive-hwi-1.2.1.war -C web/ .
    -拷贝到hive/lib目录,cp hive-hwi-1.2.1.war /home/hive/lib/
    -修改hive-site.xml配置文件,修改内容参考文档:https://cwiki.apache.org/confluence/display/Hive/HiveWebInterface
    <property>
      <name>hive.hwi.listen.host</name>
      <value>0.0.0.0</value>
      <description>This is the host address the Hive Web Interface will listen on</description>
    </property>
    
    <property>
      <name>hive.hwi.listen.port</name>
      <value>9999</value>
      <description>This is the port the Hive Web Interface will listen on</description>
    </property>
    
    <property>
      <name>hive.hwi.war.file</name>
      <value>lib/hive-hwi-1.2.1.war</value>
      <description>This is the WAR file with the jsp content for Hive Web Interface</description>
    </property>
    -拷贝/jdk中tool.jar包到hive/lib目录,命令:cp /usr/java/jdk1.7.0_79lib/tools.jar /home/hive/lib/
    -启动命令,hive --service hwi 显示下面代码表示启动成功
    [root@node1 home]# hive --service hwi
    16/06/01 09:39:21 INFO hwi.HWIServer: HWI is starting up
    16/06/01 09:39:25 INFO mortbay.log: Logging to org.slf4j.impl.Log4jLoggerAdapter(org.mortbay.log) via org.mortbay.log.Slf4jLog
    16/06/01 09:39:25 INFO mortbay.log: jetty-6.1.26
    16/06/01 09:39:26 INFO mortbay.log: Extract /home/hive/lib/hive-hwi-1.2.1.war to /tmp/Jetty_0_0_0_0_9999_hive.hwi.1.2.1.war__hwi__vrqy3t/webapp
    16/06/01 09:39:27 INFO mortbay.log: Started SocketConnector@0.0.0.0:9999
    访问web地址:http://node1:9999/hwi/,成功显示下面页面:




  3. 远程服务启动方式
    - 端口号10000
    -启动方式:#hive --service hiveserver
    -查看进程:netstat -nptl | grep 10000
    [root@node1 ~]# netstat -nptl | grep 10000
    tcp        0      0 0.0.0.0:10000           0.0.0.0:*               LISTEN      19928/java          
    [2]+  退出 255              hive --service hiveserver2
    
    -本地连接测试:bin/beeline
    [root@node1 bin]# ./beeline 
    Beeline version 1.2.1 by Apache Hive
    beeline> !connect jdbc:hive2://node1:10000
    Connecting to jdbc:hive2://node1:10000
    Enter username for jdbc:hive2://node1:10000: root
    Enter password for jdbc:hive2://node1:10000: 
    Connected to: Apache Hive (version 1.2.1)
    Driver: Hive JDBC (version 1.2.1)
    Transaction isolation: TRANSACTION_REPEATABLE_READ
    0: jdbc:hive2://node1:10000> use def
    default      deferrable   deferred 
    
    0: jdbc:hive2://node1:10000> show databases;
    OK
    +----------------+--+
    | database_name  |
    +----------------+--+
    | default        |
    | hive           |
    +----------------+--+
    2 rows selected (2.837 seconds)
    



版权声明:本文为博主原创文章,未经博主允许不得转载。

相关文章推荐

《Hadoop生态》——第二章 数据库与数据管理——Hive

Hive 许可证: Apache License, Version 2.0 活跃度: 高 目的: 数据交互 官方地址: http://hive.apache.org Hadoop...

Hadoop 实战之Streaming(十一)

ValueHistogram是aggregate package中最强大的类,基于每个键,对其value做以下统计 1)唯一值个数 2)最小值个数 3)中位置个数 4)最大值个数 5)平均值...

Hadoop读书笔记(十一)MapReduce中的partition分组

实例讲解Hadoop中MapReduce中的partition分组

HIVE13BIN_HADOOP_SPARKSQL

  • 2016-09-29 22:19
  • 51.73MB
  • 下载

hadoop生态系统学习之路(十一)Zookeeper的简单使用

今天来给大家介绍下zookeeper的简单使用。之前使用的hbase就依赖zookeeper,选举master。 下面,笔者将分以下几个步骤进行介绍:一、zookeeper的基本原理数据模型,如下:...
内容举报
返回顶部
收藏助手
不良信息举报
您举报文章:深度学习:神经网络中的前向传播和反向传播算法推导
举报原因:
原因补充:

(最多只允许输入30个字)