cdh界面 hue 配置hbase_海量数据存储技术之HBase:使用HBase Shell操纵HBase

9adc616b54da34dcbf60c0e60731e4f8.png

Apache HBase Shell是JRuby的IRB,并在此基础上加入了HBase特有的命令。

JRuby是用Java实现的Ruby解释器。通过JRuby,你可以在JVM上直接运行Ruby程序,调用Java的类库。

IRB即interactive ruby,交互式Ruby。

运行HBase Shell:$ ./bin/hbase shell

例如,我使用CDH搭建的Hadoop集群,并且安装了HBase;登录后,在集群上直接使用命令:hbase shell

b27fb67720be4d307485cb5d308643c2.png

输入命令:help ,然后回车,可以看到对各种命令的简单描述。

7573b3141db548391698cd7fbc286f67.png

输入命令:help "COMMAND" 可看具体信息。

例:help "move"

8a3937585ffa6386cc37d8e8af5e01c1.png

常用命令举例:

1) 查看表结构

desc '表名'

62b2ecd2fc5e731383d7bb2039019f57.png

2)执行大合并

major_compact '表名'

3)列出Region

list_regions '表名'

0f13c50bee044ebd34510871c21e1035.png

看的不是很清晰,取一条:

SERVER_NAME:

bg87.cnki.com,16020,1539856447742

REGION_NAME:CNKI_Search201702,1412*1487792102000#1170222153901497888|4170222193201735373$,1539880666725.bbe3ff87712f654cb29a05243229effe.

START_KEY:1412*1487792102000#1170222153901497888|4170222193201735373$

END_KEY:

358*1487455399000#1161229194701353797|5170218220001766105$

SIZE:957

REQ:4705

LOCALITY:1.0

还可以有选择性的输出信息,例如只输出服务器名称,起始键

list_regions 'testtable', {}, ['SERVER_NAME', 'start_key','end_key']

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: CDH6.3中Hue配置可以通过以下步骤完成: 1. 安装CDH6.3集群,并在其中一台机器上安装Hue。 2. 配置Hue数据库连接,可以选择MySQL作为Hue的元数据存储和用户认证数据库。在Hue配置文件中,设置以下参数: ``` [desktop] ... # Database settings ... engine=django.db.backends.mysql host=<MySQL服务器IP地址> port=<MySQL服务器端口> user=<MySQL用户名> password=<MySQL用户密码> name=<MySQL数据库名> ``` 3. 配置Hive的连接,可以通过以下步骤完成: (1)在Hue配置文件中,设置以下参数: ``` [hadoop] ... # Hive settings ... hive_server_host=<Hive服务器IP地址> hive_server_port=<Hive服务器端口> ``` (2)在Hive的配置文件中,设置以下参数: ``` <property> <name>hive.server2.enable.doAs</name> <value>true</value> </property> <property> <name>hive.server2.authentication</name> <value>KERBEROS</value> </property> <property> <name>hive.server2.authentication.kerberos.principal</name> <value>hive/_HOST@<Kerberos域名></value> </property> <property> <name>hive.server2.authentication.kerberos.keytab</name> <value>/etc/security/keytabs/hive.service.keytab</value> </property> ``` 4. 配置HBase的连接,可以通过以下步骤完成: (1)在Hue配置文件中,设置以下参数: ``` [hbase] ... # HBase settings ... hbase_host=<HBase服务器IP地址> hbase_port=<HBase服务器端口> ``` (2)在HBase配置文件中,设置以下参数: ``` <property> <name>hbase.security.authentication</name> <value>kerberos</value> </property> <property> <name>hbase.security.authorization</name> <value>true</value> </property> <property> <name>hbase.rpc.engine</name> <value>org.apache.hadoop.hbase.ipc.SecureRpcEngine</value> </property> <property> <name>hbase.master.kerberos.principal</name> <value>hbase/_HOST@<Kerberos域名></value> </property> <property> <name>hbase.regionserver.kerberos.principal</name> <value>hbase/_HOST@<Kerberos域名></value> </property> <property> <name>hbase.rpc.protection</name> <value>authentication</value> </property> ``` 5. 配置Spark的连接,可以通过以下步骤完成: (1)在Hue配置文件中,设置以下参数: ``` [spark] ... # Spark settings ... spark_host=<Spark服务器IP地址> spark_port=<Spark服务器端口> ``` (2)在Spark的配置文件中,设置以下参数: ``` spark.authenticate=true spark.authenticate.secret=<Spark认证密钥> spark.master=yarn spark.eventLog.enabled=true spark.eventLog.dir=<Spark事件日志目录> ``` 6. 配置SparkSQL的连接,可以通过以下步骤完成: (1)在Hue配置文件中,设置以下参数: ``` [spark] ... # SparkSQL settings ... spark_sql_host=<SparkSQL服务器IP地址> spark_sql_port=<SparkSQL服务器端口> ``` (2)在SparkSQL的配置文件中,设置以下参数: ``` spark.authenticate=true spark.authenticate.secret=<SparkSQL认证密钥> spark.sql.catalogImplementation=hive ``` 7. 配置PySpark的连接,可以通过以下步骤完成: (1)在Hue配置文件中,设置以下参数: ``` [spark] ... # PySpark settings ... pyspark_host=<PySpark服务器IP地址> pyspark_port=<PySpark服务器端口> ``` (2)在PySpark的配置文件中,设置以下参数: ``` spark.authenticate=true spark.authenticate.secret=<PySpark认证密钥> ``` ### 回答2: CDH6.3是一款开源的大数据平台,它拥有众多的开源项目和工具,但是如果不能充分发挥这些工具的功能,即使搭建了CDH6.3也无法完成数据处理和分析任务。因此,在CDH6.3中,我们不仅需要熟悉各个组件的使用,还需要对它们进行配置,以满足我们的具体需求。 HueCDH6.3中非常流行的一个web界面,它提供了对各种Hadoop组件的操作,包括MySQL、Hive、HBase、Spark、SparkSQL和Pyspark。下面是它们的配置过程: MySQL配置:在Hue配置文件中,需要设置数据库连接信息,包括数据库类型、地址、端口、用户名和密码等。配置好后,就可以在Hue上操作MySQL数据库。 Hive配置:在Hue配置Hive相关配置需要设置一个元数据库,可以使用MySQL作为元数据存储库,配置还包括HDFS和YARN等相关配置。完成配置后,用户可以在Hue上运行Hive查询。 HBase配置:在Hue配置HBase需要配置HueHBase的一些参数,主要是关于HueHBase API的参数,以及Hue主机的HBase客户端配置。完成配置后,用户可以使用HBase浏览器在Hue上访问HBase。 Spark配置:在Hue中集成Spark最直接的方法是通过Livy服务来连接Spark,配置需要指定Spark主机地址和端口等参数。配置好后,用户就可以在Hue上运行Spark任务。 SparkSQL配置:在Hue配置SparkSQL需要在LIVY服务中设置SparkSQL的执行环境参数。由于SparkSQL依赖于Spark集群,因此需要在Livy服务中指定Spark集群的信息。同时,需要为Hive配置一个metastore用于SparkSQL的元数据存储。 Pyspark配置Hue中集成Pyspark与Spark配置类似,通过Livy服务连接Pyspark,需要指定Python路径和Pyspark程序路径等参数。 总之,通过Hue配置CDH6.3中的组件,可以使用户在Web界面上方便的操作和管理各个组件,提高数据处理和分析效率。 ### 回答3: CDH是一个基于Apache Hadoop生态系统的分布式数据处理平台。HueCDH平台上一个重要的Web UI的组件,提供了图形界面来管理大数据。在CDH6.3中,Hue配置涉及集成多个组件,包括MySQL、Hive、HBase、Spark、Spark SQL和PySpark。 集成MySQL: 1. 在Hue配置文件中,开启MySQL的支持,启用以下参数:[[database]],type=mysql,host=localhost,port=3306,user=hueuser,password=huepassword,name=huedb。 2. 在MySQL中创建一个Hue用户并授权,使用以下命令:CREATE USER 'hueuser'@'<Hue主机>' IDENTIFIED BY 'password'; GRANT ALL PRIVILEGES ON huedb.* TO 'hueuser'@'<Hue主机>'; 3. 在Hue服务器上安装MySQL JDK依赖项和MySQL客户端依赖项,运行以下命令: sudo yum install mysql-connector-java --skip-broken sudo yum install mysql --skip-broken 4. 重启Hue服务。 集成Hive: 1. 在Hue配置文件中,开启Hive的支持,启用以下参数:[[beeswax]],hive_server_host=localhost,hive_server_port=10000。 2. 配置Hive JDBC驱动程序,将hive-jdbc.jar拷贝到Hue服务器上,并在 /etc/hue/conf/hue.ini 中配置以下: [jdbc] # The JDBC driver to use to connect to Hive hive_jdbc_jar=/usr/hdp/current/hive-client/lib/hive-jdbc.jar 3. 重启Hue服务。 集成HBase: 1. 在Hue配置文件中,开启HBase的支持,启用以下参数:[[hbase]],hbase_clusters=CDHCluster,hbase_clusters_live=CDHCluster。 2. 将 HBase 配置文件复制到 Hue 安装目录 /etc/hue/conf.dist 的 /etc/hue/conf/ 目录中。 3. 使用以下命令指定HBASE_HOME环境变量: export HBASE_HOME=/usr/lib/hbase 4. 启动Hue服务。 集成Spark 和 Spark SQL: 1. 在Hue配置文件中,开启Spark和Spark SQL的支持,启用以下参数: [[spark]] livy_server_host=localhost livy_server_port=8998 [[sparksql]] pyspark_submit_args=--master yarn-cluster --deploy-mode client 2. 安装Livy服务器,Livy是Spark的REST接口,通过Livy可以远程提交Spark作业。Livy服务器和Spark集群必须安装在同一台服务器上。 3. 在/etc/hue/conf/hue.ini文件中配置Livy服务器信息: [livy] server_url=http://localhost:8998 4. 重启Hue服务。 集成PySpark: 1. 在Hue配置文件中,开启PySpark的支持,启用以下参数:[[spark]],enable_pyspark=true,pyspark_submit_args=--master yarn-cluster --deploy-mode client。 2. 修改spark-env.sh文件,打开该文件并配置以下参数: export PYTHONPATH=/usr/lib/spark/python/:/usr/lib/spark/python/lib/py4j-0.9-src.zip:/usr/lib/hue/tools/lib/python 3. 重启Hue服务。 通过以上步骤,CDH6.3中的Hue已经成功集成了MySQL、Hive、HBase、Spark、Spark SQL和PySpark,用户可以使用Hue提供的Web UI来管理和查询大数据集群
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值