spark java 读取mysql_Spark 读取mysql中的数据

Spark(直接读取mysql中的数据)

两种方法的目的:进行mysql数据的数据清洗

方法一:

①执行

[root@head42 spark]# spark-shell --jars /opt/spark/jars/mysql-connector-java-5.1.38.jar

②执行

val df=spark.read.format("jdbc").option("delimiter",",").option("header","true").option("url","jdbc:mysql://192.168.56.103:3306/test").option("dbtable","customer").option("user","root").option("password","ok").load()

#"dbtable":mysql表名

df.show

若是出现:java.sql.SQLException: No suitable driver

执行:

[root@head42 ~]# cd /opt/hive/lib/

[root@head42 lib]# cp mysql-connector-java-5.1.38.jar /opt/spark/jars/

再重新运行上面代码

============================================================

方法二:

①创建sqoop,执行sqoop

#!/bin/bash

sqoop import \

--connect jdbc:mysql://localhost:3306/test \#test:mysql的数据库

--table table_name \

--username root \

--password ok \

--target-dir /data/mydata13 \ #指定数据存储在hdfs的路径

-m 1 #指定分几块

②进入hive创建外部表(外部表的数据是存储在hdfs上的)

create external table orders(

order_id int,

order_date timestamp,

order_customer_id int,

order_status string

)

row format delimited

fields terminated by ','

location '/data/mydata1'

然后在执行以下命令就可以在spark上进行数据的清洗

Spark 连接hive 元数据库(mysql)

方法一:

1)打开Hive metastore

[root@head42 ~]# hive --service metastore &

netstat -ano|grep 9083 ???

2)开启spark连接Mysql

[root@head42 ~]# spark-shell --conf spark.hadoop.hive.metastore.uris=thrift://localhost:9083

3)scala> spark.sql("show tables").show

spark.sql("select * from database_name.table_name")//访问其他数据库

+--------+--------------+-----------+

|database| tableName|isTemporary|

+--------+--------------+-----------+

| default| customer| false|

| default|text_customers| false|

+--------+--------------+-----------+

这样就Ok了!

方法二:

1)拷贝hive的hive-site.xml文件到spark的conf目录下

2)修改spark中hive-site.xml文件

添加以下:

hive.metastore.uris

thrift://localhost:9083

3)另建窗口启动:

[root@head42 conf]# hive --service metastore

4)启动spark:

[root@head42 conf]# spark-shell

5)测试:

spark.sql("select * from database_name.table_name").show//访问其他数据库的表格

scala> spark.sql("show tables").show

+--------+--------------+-----------+

|database| tableName|isTemporary|

+--------+--------------+-----------+

| default| customer| false|

| default|text_customers| false|

+--------+--------------+-----------+

这样就OK了!

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
【优质项目推荐】 1、项目代码均经过严格本地测试,运行OK,确保功能稳定后才上传平台。可放心下载并立即投入使用,若遇到任何使用问题,随时欢迎私信反馈与沟通,博主会第一时间回复。 2、项目适用于计算机相关专业(如计科、信息安全、数据科学、人工智能、通信、物联网、自动化、电子信息等)的在校学生、专业教师,或企业员工,小白入门等都适用。 3、该项目不仅具有很高的学习借鉴价值,对于初学者来说,也是入门进阶的绝佳选择;当然也可以直接用于 毕设、课设、期末大作业或项目初期立项演示等。 3、开放创新:如果您有一定基础,且热爱探索钻研,可以在此代码基础上二次开发,进行修改、扩展,创造出属于自己的独特应用。 欢迎下载使用优质资源!欢迎借鉴使用,并欢迎学习交流,共同探索编程的无穷魅力! 基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip 基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip 基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip
提供的源码资源涵盖了安卓应用、小程序、Python应用和Java应用等多个领域,每个领域都包含了丰富的实例和项目。这些源码都是基于各自平台的最新技术和标准编写,确保了在对应环境下能够无缝运行。同时,源码配备了详细的注释和文档,帮助用户快速理解代码结构和实现逻辑。 适用人群: 这些源码资源特别适合大学生群体。无论你是计算机相关专业的学生,还是对其他领域编程感兴趣的学生,这些资源都能为你提供宝贵的学习和实践机会。通过学习和运行这些源码,你可以掌握各平台开发的基础知识,提升编程能力和项目实战经验。 使用场景及目标: 在学习阶段,你可以利用这些源码资源进行课程实践、课外项目或毕业设计。通过分析和运行源码,你将深入了解各平台开发的技术细节和最佳实践,逐步培养起自己的项目开发和问题解决能力。此外,在求职或创业过程,具备跨平台开发能力的大学生将更具竞争力。 其他说明: 为了确保源码资源的可运行性和易用性,特别注意了以下几点:首先,每份源码都提供了详细的运行环境和依赖说明,确保用户能够轻松搭建起开发环境;其次,源码的注释和文档都非常完善,方便用户快速上手和理解代码;最后,我会定期更新这些源码资源,以适应各平台技术的最新发展和市场需求。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值