配置Spark后续操作,连接Hive

前文:Ubuntu14从安装虚拟机开始配置Spark环境

一、Hadoop分布式实例

在hdfs上创建hadoop用户,及创建input文件夹

./bin/hdfs dfs -mkdir -p /user/hadoop
./bin/hdfs dfs -mkdir ./input

在这里插入图片描述
上传文件并查看

./bin/hdfs dfs -put /home/hadoop/下载/*.txt input
./bin/hdfs dfs -ls

在这里插入图片描述
三表合一

# 读取文件
var a = sc.textFile("input/result_bigdata.txt").map{x=>val line=x.split("\t");(line(0),line(1),line(2).toInt)}
var b = sc.textFile("input/result_math.txt").map{x=>val line=x.split("\t");(line(0),line(1),line(2).toInt)}

# 联合a、b两表
var a_b  = a union b

# 降阶操作
var total_score = a_b.map(x=>(x._1,x._3)).reduceByKey((x,y)=>x+y)

# 求平均数
var average  = total_score.map{x=>(x._1,x._2/2)}

# 数学成绩
var math_score = b.map{x=>(x._1,x._3)}

# bigdata成绩
var bigdata_score = a.map{x=>(x._1,x._3)}

# 读取学生表
var c = sc.textFile("input/student.txt").map{x=>val line=x.split("\t");(line(0),line(1))}

# 联合数学成绩和bigdata成绩
var score1 = math_score.join(bigdata_score)

# 联合平均分和总分
var score2 = total_score.join(average)

# 联合前面两表
var score = score1.join(score2)

# 将学生表和最终成绩表联合
var flag  = c.join(score)

# 看一下效果
flag.collect
var a = sc.textFile("input/result_bigdata.txt").map{x=>val line=x.split("\t");(line(0),line(1),line(2).toInt)}
var b = sc.textFile("input/result_math.txt").map{x=>val line=x.split("\t");(line(0),line(1),line(2).toInt)}
var a_b  = a union b
var total_score = a_b.map(x=>(x._1,x._3)).reduceByKey((x,y)=>x+y)
var average  = total_score.map{x=>(x._1,x._2/2)}
var math_score = b.map{x=>(x._1,x._3)}
var bigdata_score = a.map{x=>(x._1,x._3)}
var c = sc.textFile("input/student.txt").map{x=>val line=x.split("\t");(line(0),line(1))}
var score1 = math_score.join(bigdata_score)
var score2 = total_score.join(average)
var score = score1.join(score2)
var flag  = c.join(score)
flag.collect

二、spark支持hive的版本

问题:
在这里插入图片描述
解决方案:
资料:Spark入门:连接Hive读写数据(DataFrame)

安装编译后的spark版本

sudo tar -zxf ~/下载/spark-2.1.0-bin-h27hive.tgz -C /usr/local

在这里插入图片描述
修改文件名

sudo mv /usr/local/spark-2.1.0-bin-h27hive /usr/local/sparkwithhive

在这里插入图片描述
修改文件权限

sudo chown -R hadoop:hadoop /usr/local/sparkwithhive

在这里插入图片描述

cd /usr/local/sparkwithhive/
cp ./conf/spark-env.sh.template ./conf/spark-env.sh

在这里插入图片描述

配置spark

vim ./conf/spark-env.sh
export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop-2.7.1/bin/hadoop classpath)

在这里插入图片描述

启动spark的命令环境

cd /usr/local/sparkwithhive
./bin/spark-shell

在这里插入图片描述
在这里插入图片描述

三、安装Hive

解压安装目录

sudo tar -zxvf ./下载/apache-hive-1.2.2-bin.tar.gz -C /usr/local

将文件夹名改为hive,并修改权限

sudo mv /usr/local/apache-hive-1.2.2-bin /usr/local/hive       
sudo chown -R hadoop  /usr/local/hive 

修改/usr/local/hive/bin/hive(不清不楚的,看参考资料

vim /usr/local/hive/bin/hive

如后面截图,找到对应位置修改

sparkAssemblyPath=`ls ${SPARK_HOME}/jars/*.jar`

在这里插入图片描述

编辑配置环境

vim ~/.bashrc
export HIVE_HOME=/usr/local/hive
export PATH=$PATH:$HIVE_HOME/bin

在这里插入图片描述
立即激活环境

source ~/.bashrc
cp /usr/local/hive/conf/hive-env.sh.template /usr/local/hive/conf/hive-env.sh

配置hive文件

vim /usr/local/hive/conf/hive-env.sh
export HADOOP_HOME=/usr/local/hadoop-2.7.1

在这里插入图片描述
立即激活它

source /usr/local/hive/conf/hive-env.sh

修改文件名

sudo mv /usr/local/hive/conf/hive-default.xml.template /usr/local/hive/conf/hive-default.xml

在这里插入图片描述
创建hive-site.xml文件

touch /usr/local/hive/conf/hive-site.xml

编辑

vim /usr/local/hive/conf/hive-site.xml
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
  <property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value>
    <description>JDBC connect string for a JDBC metastore</description>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.jdbc.Driver</value>
    <description>Driver class name for a JDBC metastore</description>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>hive</value>
    <description>username to use against metastore database</description>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>hive</value>
    <description>password to use against metastore database</description>
  </property>
</configuration>

在这里插入图片描述

四、配置mysql

sudo apt-get install mysql-server

在这里插入图片描述

不清楚上下两步的区别

解压mysql

cd 下载
tar -zxvf mysql-connector-java-5.1.46.tar.gz

在这里插入图片描述

cp mysql-connector-java-5.1.46/mysql-connector-java-5.1.46-bin.jar  /usr/local/hive/lib
service mysql start

在这里插入图片描述
登入mysql

mysql -u root -p

在这里插入图片描述
创建数据库

create database hive;

在这里插入图片描述

#将所有数据库的所有表的所有权限赋给hadoop用户,后面的hive是配置hive-site.xml中配置的连接密码
grant all on *.* to hadoop@localhost identified by 'hive';

在这里插入图片描述
刷新sql的权限

flush privileges;

在这里插入图片描述

在后续的编码中还需配置spark的文件

vim /usr/local/sparkwithhive/conf/spark-env.sh
export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop-2.7.1/bin/hadoop classpath)
export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_162
export CLASSPATH=$CLASSPATH:/usr/local/hive/lib
export SCALA_HOME=/usr/local/scala-2.11.8
export HADOOP_CONF_DIR=/usr/local/hadoop-2.7.1/etc/hadoop
export HIVE_CONF_DIR=/usr/local/hive/conf
export SPARK_CLASSPATH=$SPARK_CLASSPATH:/usr/local/hive/lib/mysql-connector-java-5.1.46-bin.jar

在这里插入图片描述
将hive的site文件拷贝到spark的conf目录下

cp /usr/local/hive/conf/hive-site.xml  /usr/local/sparkwithhive/conf/

启动hadoop集群

/usr/local/hadoop-2.7.1/sbin/start-all.sh

在这里插入图片描述
在这里插入图片描述
进入hive,哪个目录执行都行

hive

在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 在IDEA中使用Spark SQL远程连接Hive,需要进行以下步骤: 1. 首先,需要在IDEA中添加Hive的JDBC驱动,可以通过Maven或手动添加方式进行。 2. 在代码中创建SparkSession对象,并设置Hive的元数据存储位置和Hive的JDBC连接信息。 3. 使用SparkSession对象创建DataFrame或Dataset,并通过Spark SQL语句进行数据查询。 示例代码如下: ```java import org.apache.spark.sql.SparkSession; public class SparkHiveDemo { public static void main(String[] args) { SparkSession spark = SparkSession.builder() .appName("SparkHiveDemo") .config("spark.sql.warehouse.dir", "/user/hive/warehouse") .config("hive.metastore.uris", "thrift://hive-server-host:9083") .enableHiveSupport() .getOrCreate(); spark.sql("SELECT * FROM my_table").show(); spark.stop(); } } ``` 其中,`hive.metastore.uris`参数需要设置为Hive的Metastore服务地址,`/user/hive/warehouse`为Hive的元数据存储位置。通过`enableHiveSupport()`方法启用Hive支持,可以直接使用Hive表名进行查询。 ### 回答2: Apache Spark是一个开源的分布式计算框架,可以提高数据处理和分析的效率。同时,Spark还提供了许多实用的API,包括Spark SQL。 它可以让用户使用SQL语言查询分布式数据集,从而简化了数据分析的工作流程。 HiveHadoop生态系统中的一个数据仓库,它可以将结构化数据映射到Hadoop分布式文件系统中。Hive提供了一种将SQL查询转换为MapReduce作业的方法,使得在Hadoop平台上进行数据仓库的开发变得更加容易。 在使用Spark时,可以通过Spark SQL来执行Hive查询。 远程连接Hive需要注意以下几点: 1.配置Spark环境变量 首先,您需要确保Spark已正确配置以使用Hive。 您需要在spark-env.sh或spark-env.cmd文件中设置以下环境变量: export HADOOP_CONF_DIR=/path/to/hadoop/conf export HIVE_CONF_DIR=/path/to/hive/conf 2.添加Hive JDBC驱动程序 在idea项目中通过pom.xml配置以下的Hive JDBC驱动程序,以便Spark可以连接Hive。该驱动程序可以从以下位置找到: <dependency> <groupId>org.apache.hive</groupId> <artifactId>hive-jdbc</artifactId> <version>2.1.1</version> </dependency> 3.使用Spark SQL连接Hive 现在,使用以下代码片段来连接Hive: val spark = SparkSession.builder .appName("SparkHiveExample") .config("spark.sql.warehouse.dir", "/user/hive/warehouse") .config("hive.metastore.uris", "thrift://localhost:9083") .enableHiveSupport() .getOrCreate() 这些参数的含义如下: - appName:Spark应用程序的名称 - spark.sql.warehouse.dir:Hive数据仓库的目录 - hive.metastore.uris:Hive元数据存储的URI - enableHiveSupport():启用Hive支持 现在,您可以使用Spark SQL查询Hive表。例如,以下代码片段将从Hive表中选择数据: val df = spark.sql("SELECT * FROM myhiveTable") df.show() 总的来说,Spark SQL 提供了一个不错的方式来查询Hive。只需要正确配置环境变量、添加Hive JDBC驱动、使用Spark SQL连接Hive即可。这样,就可以通过Spark在分布式环境中轻松地执行Hive查询,提高数据分析的效率。 ### 回答3: Spark是一个快速、分布式、通用的计算引擎,可以与多种数据源集成,包括关系型数据库、数据仓库和大数据存储系统。在这些数据源中,Hive是一个常见的大数据存储系统,用于存储和管理大量的结构化数据。Spark支持通过Spark SQL访问Hive数据,通过远程连接来实现跨集群访问Hive数据。 在Spark中使用Spark SQL连接Hive需要以下步骤: 1. 配置SparkHive的环境。首先需要启用Hive支持,即在Spark配置文件中加入配置信息,如通过设置SPARK_DIST_CLASSPATH环境变量,将Hive的JAR包添加到SparkCLASSPATH中。 2. 连接集群中的Hive元数据。Spark需要访问Hive元数据来获取表的结构信息和分区等信息。通过设置Hive连接字符串和用户名密码等信息来连接Hive元数据。 3. 创建Spark程序来读取Hive数据。可以通过Spark SQL的API来创建DataFrame或者Dataset,接着可以使用DataFrame或者Dataset API来完成数据的处理和分析。 在实际使用过程中,还需要注意以下问题: 1. 版本兼容性问题。要确保Spark版本和Hive版本兼容,否则在连接和查询数据时可能会出现异常。 2. 数据序列化和反序列化问题。在Spark中读取Hive数据时需要将数据进行序列化和反序列化的操作,因此需要确保序列化和反序列化方法的正确性。 3. 性能问题。由于SparkHive运行在不同的集群之间,因此需要注意网络带宽和延迟等问题,以避免影响读取数据的性能。 总之,在使用中需要仔细配置环境,并确保程序的正确性和性能,才能利用好SparkHive的强大功能,实现大数据的复杂分析和处理。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值