当启动spark的时候报这个错误
情况一:首先检查配置文件 /export/servers/spark/conf/spark-env.sh
情况二:如果第一步都没问题 ,就在此检查是否有这个错误
如果有你就查看 /export/servers/spark/jars里面是否有msql的包
如果没有将hive里面的lib下的包导入即可
cp /export/servers/hive-1.1.0-cdh5.14.0/lib/mysql-connector-java-5.1.38.jar /export/servers/spark/jars/
情况一 二都没问题后,重新进入/export/servers/spark//bin启动即可
spark-shell