1.spark-shell的使用:
安装完spark之后,将spark/bin的路径配置到本地文件,即可不需要进入spark/bin目录下启动任务
1)直接打开,运行以下命令会发现无法访问hive表的数据:
spark-shell --master local[2]
spark.sql("show tables").show()
2)将hive/conf目录下的hive-site.xml文件拷贝到spark/conf目录下(且添加参数“hive.metastore.schema.verification”的值为“true”,这样做的目的是使得进入spark客户端时不报版本不匹配错误;但是不添加也是可以正常运行的)
随后运行命令:
spark-shell --master local[2] --jars jar/mysql-connector-java-5.1.27-bin.jar
此处jars后面的参数是mysql的jar包所在的路径
再后即可调用sql命令,并得到结果:
spark.sql("select * from stu").sh