spark整合hive和sql

12 篇文章 0 订阅
8 篇文章 0 订阅

 

 

1.首相将hive中的配置文件hive-site.xml,hadoop的配置文件core-site.xml,hdfs-site.xml

------复制到$SPARK_HOME/conf/目录中

2.再将jdbc驱动程序mysql-connector-java-x.x.x.jar 复制到$SPARK_HOME/jars或者$SPARK_HOME/lib目录下

 

3.启动动hadoop,hive和mysql

 

4.启动spark local模式

bin/spark-shell --driver-class-path $SPARK_HOME/jars/mysql-connector-java-x.x.x.jar

 

5.测试

-----a.创建hiveContext对象 val hc =org.apache.spark.sql.hive.HiveContext(sc)

-----b.创建表 hc.sql("create table test (a string,b string) row format delimited fields terminated by ',' ")

-----c.增加数据hc.sql("load data local 'filePath' into table test")

----------数据为:

----------Tom,20
----------Jim,40
----------Rose,50

-----d.查看数据hc.sql("select *from test")

 

 

=================================================================

 

 

下面测试mysql连接:

 

1.我们是通过hiveContext去连接的,语句为

val msyql = hc.read.format("jdbc").options(Map("url"->"jdbc:mysql://ip:3306/数据库名字?user=用户名&password=密码","dbtable"->"表名","driver"->"com.mysql.jdbc.Driver")).load()

 

2.查看表的内容

msyql.show()

 

 

 

 

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值