1、Spark自带内置的hive,我们一般直接删除metastore_db,另一个生成的warehouse也删掉(没创建表就没有)
2、将mysql下的mysql-connector-java-5.1.38.jar放到spark的jar文件夹下
3、将hive的hive-site.xml文件放到spark的conf文件夹下
4、bin/spark-shell启动,查询数据库信息
5、创建一个表
scala> spark.sql("create table xxx(id Int)")
导入数据
scala> spark.sql("load data local inpath '/root/1.txt' into table xxx")
可以查询到信息