Apache Hive(部署+SQL+FineBI构建展示)

在这里插入图片描述

在这里插入图片描述

Hive架构

在这里插入图片描述
在这里插入图片描述

Hive部署

在这里插入图片描述
在这里插入图片描述

VMware虚拟机部署

一、在node1节点安装mysql数据库
在这里插入图片描述

二、配置Hadoop
在这里插入图片描述

三、下载 解压Hive
在这里插入图片描述

四、提供mysql Driver驱动
在这里插入图片描述

五、配置Hive
在这里插入图片描述
在这里插入图片描述

六、初始化元数据库
在这里插入图片描述

七、启动Hive(Hadoop用户)

chown -R hadoop:hadoop apache-hive-3.1.3-bin hive
在这里插入图片描述

阿里云部署
在这里插入图片描述

一、创建云数据库库
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

二、配置Hive
在这里插入图片描述
数据库连接地址粘贴到配置文件中
在这里插入图片描述
通过yum install -y mysql 安装mysql客户端,用于mysql命令的输入

UCloud云部署
在这里插入图片描述

一、创建UDB数据库
在这里插入图片描述

二、创建一个Hive数据库(需要通过yum install -y mysql提前安装命令)
在这里插入图片描述

三、初始化
在这里插入图片描述

============================================================

Hive操作

通过ps -ef | grep 40991更详细查看
或者通过jps查看
在这里插入图片描述

在这里插入图片描述

通过浏览器可以查看
在这里插入图片描述

Hive客户端

在这里插入图片描述

启动Hive客户端两种方式:
①、bin/hive即Hive的Shell客户端,直接写SQL
②、bin/hive --service hiveserver2 HiveServer2属于Hive内置的一个ThriftServer服务,提供Thrift端口供其他客户端链接:

可以链接ThriftServer的客户端有:

  • Hive内置的beeline客户端工具(命令行工具)
  • 第三方图形化SQL工具DataGrip 或DBeaver或者Navicat

在这里插入图片描述

HiveServer2 & Beeline(内置客户端)

①、启动beeline
在这里插入图片描述
②、连接hive2
在这里插入图片描述

DataGrip & DBeaver(第三方客户端)

①、DataGrip使用
在这里插入图片描述
②、进行连接
在这里插入图片描述
在这里插入图片描述

③、写SQL语句
在这里插入图片描述
在这里插入图片描述


①、DBeaver使用
在这里插入图片描述
②、构建驱动
在这里插入图片描述

删除原来的驱动
在这里插入图片描述
添加自己本地下载好的文件
在这里插入图片描述
③、写好SQL,回车可以运行
在这里插入图片描述

数据库操作

在这里插入图片描述
在这里插入图片描述

表分类:

内部表
在这里插入图片描述
在这里插入图片描述

create table myhive.stu(id int,name string); # 在myhive数据库中创建stu表

# 指定分隔创建表 避免在下面查看表内容出现id和name不可见字符导致的紧凑
create table if not exists stu2(id int,name string) row format delimited fields terminated by '\t';

insert into myhive.stu values(1,'jordan'),(2,"kobe");

在这里插入图片描述

外部表
在这里插入图片描述

一、将数据上传到外部表所在的目录(先有表,再有数据)
在这里插入图片描述
在这里插入图片描述

二、先存在数据,后创建表
在这里插入图片描述

两者对比:
在这里插入图片描述

内外部表转换:

①、先查看表类型
在这里插入图片描述

②、转换
在这里插入图片描述

数据的导入:

①、使用LOAD语法,从外部将数据加载到Hive内
在这里插入图片描述

CREATE TABLE myhive.test_load(
	dt string comment '时间(时分秒)',
	user_id string comment '用户ID',
	word string comment '搜索词',
	url string comment '用户访问地址'
) comment '搜索引擎日志表' ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t';

在这里插入图片描述

# 本地linux系统上传
load data local inpath '/home/hadoop/search_log.txt' into table myhive.test_load;

# 本质上是文件移动
load data inpath '/tmp/search_log.txt' overwrite into table myhive.test_load

【基于HDFS进行load加载数据,元数据文件会消失(本质是被移动到表所在的目录中)】
在这里插入图片描述

②、从其他表加载数据
在这里插入图片描述

数据的导出:

①、将hive表中的数据导出到其他任意目录,例如linux本地磁盘,hdfs,mysql等
在这里插入图片描述

②、通过hive shell方式导出
在这里插入图片描述

分区表
在这里插入图片描述

在这里插入图片描述

构建分区表
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

分桶表
在这里插入图片描述

分桶表创建
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

修改表操作
在这里插入图片描述

复杂类型

在这里插入图片描述

array数组
在这里插入图片描述
在这里插入图片描述

map映射
在这里插入图片描述
在这里插入图片描述

struct结构
在这里插入图片描述

在这里插入图片描述

常用的基本查询
在这里插入图片描述
在这里插入图片描述

正则表达式
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

UNION联合
在这里插入图片描述
在这里插入图片描述

随机采样
在这里插入图片描述

在这里插入图片描述

虚拟列
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

函数

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

案例:

一、需求:
在这里插入图片描述

数据
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

二、ETL数据清洗:
在这里插入图片描述
在这里插入图片描述

三、指标

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

四、可视化
在这里插入图片描述
①、下载FineBI
在这里插入图片描述

②、将Hive驱动包放到FineBI安装目录下,以及安装隔离插件
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

③、建立数据库连接
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

④、构建数据集(选择数据库表)
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
添加组件和仪表盘
在这里插入图片描述

  • 3
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: flume+spark+hive+spark sql离线分析系统是一种基于大数据技术的离线数据分析系统。其中,flume用于数据采集和传输,spark用于数据处理和计算hive用于数据存储和管理,spark sql用于数据查询和分析。通过这个系统,可以实现对大量数据的高效处理和分析,为企业决策提供有力的支持。 ### 回答2: flume spark hive spark sql离线分析系统是一种数据处理系统。该系统可以用于处理大量的数据,生成相应的报告和分析。博客文章有详细讨论。 flume是一个分布式日志采集系统,它可以将数据从不同的地方采集并传输到所需的位置。它可以采集不同的日志数据,包括web日志、服务器日志、应用程序日志等。flume是一个可扩展的系统,可以用于处理大量的数据。 spark是一个强大的分布式计算引擎,它允许用户在大规模的数据集上进行高性能计算。spark可以快速地处理大量的数据,并支持多种编程语言,例如Java、Python和Scala等。spark还提供了可视化编程工具,例如RDD(弹性分布式数据集)来支持数据处理和分析等任务。 hive是一个基于Hadoop的数据仓库系统,它可以将结构化的数据存储在Hadoop的HDFS文件系统中。hive提供了类SQL的查询语言,例如HQL,并支持复杂查询和数据分析任务。hive还提供了很多插件,使用户可以轻松地将数据导入和导出到不同的数据源中。 spark sql是spark的一部分,它提供了SQL查询和数据分析功能。spark sql的灵活性和可扩展性使其非常适合处理大数据量的数据,包括结构化数据和半结构化数据。 综上所述,flume spark hive spark sql离线分析系统是一个可以用于处理大量的数据的系统,它由flume、spark、hive以及spark sql等组成部分。该系统可以帮助用户轻松地采集、存储、分析和报告大量的数据,有着非常广泛的应用。 ### 回答3: Flume、Spark、Hive、Spark SQL四个工具都是用于离线分析系统的。 Flume是由Apache基金会开发的开源数据采集系统,用于收集、聚合和移动大量数据。Flume可以实现数据的采集、压缩、持久化和转发,从而实现数据流水线。Flume可以将数据从不同来源收集到不同的目标,支持多种数据源,包括文件、HTTP、数据库等。Flume可以使数据收集更加高效和可靠。 Spark是一种快速、通用的计算引擎,用于大规模数据处理。Spark支持分布式计算,可以在数百台计算机上并行运行。Spark是用Java、Scala或Python编写的,可以处理数据,并提供先进的机器学习和图形处理功能。Spark具有内存计算和多种处理任务的灵活性,可以用于各种大规模数据处理的场景中。 Hive是面向Hadoop的数据仓库软件,提供了一个类似SQL的查询语言,用于查询和分析大规模数据。Hive将数据以表格的形式组织和存储,并通过SQL语言进行查询和分析。Hive可以用于各种数据仓库的管理,包括文件、HDFS、HBase等。 Spark SQL是在Spark引擎之上构建的结构化数据处理系统,提供了一种基于SQL的编程接口。Spark SQL可以将结构化数据与RDD集成在一起,可以使用Spark的内存计算引擎和流式处理引擎进行大规模的数据分析。Spark SQL可以在SQL查询中使用自己的数据格式,从而实现高效的数据处理和分析。 综上所述,Flume、Spark、Hive、Spark SQL这四个工具是离线分析系统中的重要组成部分,可以实现数据采集、数据处理和数据分析。在大数据分析的过程中,这些工具为数据科学家提供了丰富的选项,从而可以更好地处理数据,加快分析速度并获得更深入的见解。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值