需要修改 hive conf 中的 hive-site.xml 文件
增加过这个配置之后 hive 就会用不了
接下来
启动hive元数据服务
nohup hive --service metastore >> metastore.log 2>&1 &
启动过后 jps 会有 一个 runjar
配置环境 变量 可以直接 执行 没有 的 话 要去 hive bin 目录下 执行
2、将hive-site.xml 复制到spark conf目录下
4、 将mysql 驱动包复制到saprk jars目录下
cp mysql-connector-java-5.1.17.jar /usr/local/soft/spark-2.4.5-bin-hadoop2.6/jars/
到 hive的 lib 目录下执行
这个时候 就可以 在 spark -sql 中看到 hive 中的表1了 链接hive 元数据